You are on page 1of 575

ISBN 84-8021-312-4

9 788480 213127
Subido por:

Libros de Ingeniería Química y más

https://www.facebook.com/pages/Interfase-
IQ/146073555478947?ref=bookmarks

Si te gusta este libro y tienes la posibilidad,


cómpralo para apoyar al autor.
Col-lecció
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
BIBLIOTECA DE LA UNIVERSITÄT JAUME I. Dades catalogràfiques

QUÍMICA teorica y computacional / editores Juan Andrés y Juan Bertrán. —


Castello de la Plana : Publicacions de la Universität Jaume I, D.L. 2000
p. : il. ; cm. — (Ciències experimentáis ; 2)
Bibliografia
ISBN 978-84-15443-27-8
ISBN: 84-8021-312-4
1. Físico-química. 2. Físico-química—Processament de dades. I. Andrés, Juan, ed.
II. Bertrán, Juan, ed. III. Universität Jaume I (Castello). Publicacions de la Universität
Jaume I, ed. IV. Títol. V. Sèrie.
544
544:681.31.066

Cap part d’aquesta publicado, incloent-hi el disseny de la coberta, no pot ser


reprodu'ida, emmagatzemada, ni transmesa de cap manera, ni per cap mitjà
FOTOCOPIAR LLIBRES
(elèctric, quimic, mecànic, òptic, de gravació o bé de fotocòpia) sense autorit-
NO ÉS LEGAL zació prèvia de la marca editorial

© Del text: Els autors, 2000

© De la present edició: Publicacions de la Universität Jaume I, 2000

Edita: Publicacions de la Universität Jaume I. Servei de Comunicació i Publicacions


Campus del Riu Sec. Edifici Rectorat i Serveis Centrals. 12071 Castellò de la Plana
Tel. 964 72 88 19. Fax 964 72 88 32
http://sic.uji.es/publ e-mail: publicacions@uji.es

ISBN: 978-84-15443-27-8
84-8021-312-4

DOI: http://dx.doi.org/10.6035/CienciesExperimentals.2000.2
Dipòsit legal: CS-539-2000

Imprimeix: Graphic Group


m

Estudiantes y profesores del Primer Curso Interuniversitario de Doctorado en Química Teórica y


Computacional, celebrado en la Universität Jaume I del 24 de enero al 19 de febrero de 2000

V
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
PRÓLOGO

revisiones de los planes de estudio de la licenciatura de química


a s re c ie n te s

L en las universidades españolas se han orientado hacia una formación generali­


zada, que maximice las oportunidades profesionales. Se podría esperar que una
formación más especializada tenga lugar en los programas de doctorado, pero esto
desgraciadamente no es así. En los programas de doctorado actuales coexisten asig­
naturas generales, que puedan interesar a muchos alumnos, con asignaturas muy espe­
cíficas en la línea de los trabajos propios de cada grupo de investigación.
Dado el buen momento de la química teórica española, tanto por la cantidad
como por la calidad de los grupos existentes, nos pareció indispensable organizar
un programa de doctorado en «química teórica y computacional», en el que de una
forma sistemática se iniciara seriamente a los doctorandos en esta especialidad. El
programa es interuniversitario con la finalidad de obtener una masa crítica suficien­
te y de aprovechar al máximo los recursos. Ello permite, además, enriquecer los
propios puntos de vista con los de otros especialistas y establecer profundos lazos
de amistad entre jóvenes compañeros de varias universidades. La primera experien­
cia de este programa, en la que han participado doce universidades españolas, ha
tenido lugar en la Universität Jaume I de Castellón del 24 de enero al 19 de febrero
del año 2000. Ello ha sido posible gracias a la ayuda financiera del Ministerio de
Educación y Cultura, de la propia Universidad y del Institut Lluís Vives. Después
del curso intensivo, la formación en cada asignatura ha continuado mediante una
serie de ejercicios bajo la dirección de un tutor de la propia universidad. En este
libro se recoge el contenido del curso intensivo impartido.
En el título del libro se menciona la química teórica y no la química cuántica
porque el contenido de la química teórica es más amplio. Sin duda, la química cuán­
tica es una parte esencial, pero la química teórica engloba, además, las técnicas esta­
dísticas, que permiten pasar del micro al macrocosmos, y* por tanto, interpretar y
predecir las experiencias fenomenológicas. Las simulaciones de Monte Cario y de
Dinámica Molecular son verdaderos experimentos numéricos con ordenador.
Es evidente que la incidencia práctica de la química teórica está estrechamente
ligada al desarrollo de la informática y así ha sido históricamente. En la actualidad
la informática está invadiendo todos los campos científicos y profesionales, pero
esto es especialmente relevante en el campo de la química, ya que la química teóri­
ca ha podido desplegar todas sus posibilidades gracias a la explosión de la potencia
de cálculo de los modernos ordenadores. No es de extrañar que los químicos teóri­
cos sean los principales usuarios de los diferentes Centros de Cálculo. Por esta
razón el título del libro es «química teórica y computacional».

VII
En el primer capítulo se presentan los fundamentos de la química teórica, tanto
los de mecánica cuántica como los de mecánica estadística, poniéndose especial
énfasis en la formulación matemática. En el segundo se exponen los métodos de la
química cuántica, insistiéndose particularmente en los métodos post Hartree-Fock y
en la teoría del funcional de la densidad. En el tercer capítulo se hace una iniciación
a la programación científica. El objetivo de este primer bloque es establecer unas
sólidas bases en química teórica, mientras que el objetivo de los capítulos restantes
es ilustrar algunas de las posibles aplicaciones químicas.
En cada uno de los siguientes capítulos, antes de exponer una determinada apli­
cación, se desarrollan los métodos adecuados para su tratamiento. Las propiedades
de los sólidos y de las superficies, así como su participación en la catálisis heterogé­
nea, se estudian en el capítulo cuarto. A la dinámica de las reacciones químicas se le
dedican dos capítulos. En el quinto se presentan los tratamientos de dinámica mole­
cular y en el sexto la teoría del estado de transición. Los dos capítulos siguientes se
refieren a la espectroscopia, mereciendo especial atención los estados vibracionales
altamente excitados en el séptimo y los estados electrónicos excitados en el octavo.
Finalmente, se dedica el último capítulo a la modelización molecular, prestándose
especial atención a los fenómenos de solvatación y a la catálisis enzimàtica.
Los químicos teóricos de este país tienen una elevada presencia en todos los
campos de la química. Los diferentes grupos gozan de un gran prestigio interna­
cional y publican regularmente en las revistas de mayor índice de impacto. Sin
embargo, no se ha pretendido, en este libro y en el curso intensivo impartido, explo­
rar toda la riqueza de las aplicaciones computacionales, sino ilustrar con algunos
ejemplos que la química teórica es auténtica química. Más aún, se ha pretendido
mostrar que la química teórica es uno de los motores fundamentales en diferentes
campos de la química. Como decía la Academia de Ciencias Sueca al otorgar el pre­
mio Nobel de Química de 1998 a W. Kohn y J. A. Pople «la química ha dejado de
ser una ciencia puramente experimental». Por ello, un químico que no domine la
química computacional no responde al perfil de un químico del siglo xxi.
Si siempre ha sido verdad la frase del reciente premio Príncipe de Asturias,
Umberto Eco, en El nombre de la rosa, de que «los libros no están hechos para ser
creídos sino para ser discutidos», más cierto lo es en el caso de un libro que pre­
tende ser una iniciación a la investigación. El propósito fundamental de este libro es
suscitar un diálogo, una discusión, que permita a los jóvenes investigadores ensan­
char las fronteras del conocimiento.
No quisiéramos terminar sin expresar nuestro profundo agradecimiento a BAN-
CAIXA, Fundació Caixa Castello, por haber financiado la edición de este libro. Los
autores y editores de este libro confiamos que sea útil no sólo a los que cursan el
programa de doctorado de «química teórica y computacional», sino también para
todos los especialistas en este campo.

Castellón, octubre de 2000

Los editores

VIII
SOBRE LOS AUTORES

Ignacio Nebot Gil, nacido en 1952. Estudios universitarios de Química en la


Universidad de Valencia (1969-74). Doctorado sobre estudios teóricos de mecanis­
mos de reacción por la Universidad de Valencia (1979). Estancia postdoctoral en la
Universidad Paul Sabatier de Toulouse con el Prof. Malrieu sobre estudios teóricos
de procesos fotoquímicos (19780-81). Profesor Adjunto de Universidad en 1982 y
Catedrático de Química Física de la Universidad de Valencia desde 1986. Trabaja
sobre estudios teóricos de mecanismos de reacciones de interés en química atmos­
férica, desarrollos de métodos de cálculo de la correlación electrónica de alta preci­
sión y estudios sobre la estructura de complejos entre elementos de los grupos III y
V. Aficiones: música clásica, literatura, ordenadores e informática (Linux sobre
Macintosh), guitarra clásica, fotografía, aves y astronomía. Tiempo para aficiones:
ninguno.

Jesús M. Ugalde es Catedrático de Química-Física en la Universidad de Pais


Vasco/Euskal Herriko Unibertsitatea desde 1994. Se licenció en Química en la
Universidad de Valladolid en 1981 y recibió el Doctorado en esa misma Universidad
en 1984. Ha sido PostDoc de las Universidades de Dalhousie en Cañada y Namur
en Bélgica y profesor visitante en la Universidad de Cornell y en el Oak Ridge
National Laboratory, ambos en USA. Sus temas de investigación comprenden el
estudio de la estructura de clusters, efectos de apantallamiento, reactividad de meta­
les de transición y estudios de las densidades y distribuciones electrónicas atómicas
y moleculares. En 1997 recibió el Premio Munibe de investigación otorgado por el
Parlamento Vasco.

Rosa Caballo!, Licenciada y Doctora en Ciencias Químicas por la Universidad


de Barcelona. Se inició en el campo de la Química Cuántica bajo la dirección del
Prof. Ramón Carbó Carré. Sus intereses en investigación se centraron desde el prin­
cipio en los desarrollos metodológicos adecuados para sistemas de capas abiertas.
Después de una estancia en el Laboratoire de Physique Quantique de la Université
Paul Sabatier de Toulouse (Francia), ha efectuado desarrollos y aplicaciones sobre
el tratamiento de la correlación electrónica. En la actualidad es Catedrática de
Química Física de la Universidad Rovira i Virgili (URV), y se interesa por el estu­
dio químico-cuántico del magnetismo molecular. Ha sido decana de la Facultad de
Química de la URV de 1995 a 1998 y actualmente es directora del Instituto de
Estudios Avanzados de dicha Universidad.

IX
Miquel Solá, nació en Fonteta (Girona) el año 1964. Se formó como químico en
la Universidad Autónoma de Barcelona en la que se licenció en el año 1986 consi­
guiendo el Premio Extraordinario de Licenciatura. Su Tesis Doctoral, realizada en
la misma Universidad y dirigida por los Profesores Juan Bertrán y Agustí Lledós,
obtuvo el Premio Extraordinario de Doctorado y el Premio Sant Albert concedido
por el Colegio de Químicos de Cataluña. Después de trabajar durante unos meses
como consultor informático en una compañía privada, en 1993 ingresó como técni­
co de investigación en la Universidad de Girona. En 1994 y 1995 realizó estancias
postdoctorales en los laboratorios de los Profesores Evert Jan Baerends en
Amsterdam y Tom Ziegler en Calgary. En 1997 consiguió una plaza de Profesor
Titular en la Universidad de Girona. Su investigación se ha centrado en el estudio
teórico de mecanismos de reacción y en el uso de medidas de semejanza molecular
cuántica para el análisis de densidades moleculares.

Juan J. Novoa, nació en 1955 en San Ciprián de Viñas (Orense) y se formó


en la Universidad de Barcelona, donde se licenció en Química en 1977 y docto­
ró en 1981. Tras estancias postdoctorales con los Profesores R. Carbó (Instituto
Químico de Sarriá, Barcelona) y M.A. Robb (Queen Elizabeth College, Londres)
entre los años 1981 y 1983, se reintegró a la Universidad de Barcelona, donde ha
sido Profesor Titular y en la actualidad es Catedrático de Química Física (1997).
Su línea de investigación principal es sobre el estudio teórico de las propiedades
de moléculas y sólidos. Dentro de la misma, en los últimos tiempos, se ha dedi­
cado en especial al estudio de la ingeniería de cristales moleculares y de los
métodos de control de las propiedades electrónicas en cristales moleculares de
interés tecnológico (magnéticos y superconductores, en particular). Así mismo,
mantiene un interés en el desarrollo y aplicaciones de metodologías básicas para
el estudio de interacciones moleculares y estados excitados, y su aplicación a
agregados moleculares y sólidos. Sus aficiones personales son principalmente
los deportes, el arte y los viajes. Practica el futbol-sala y el racket-ball habitual­
mente y, en los veranos, montañismo con su familia, en especial travesías por alta
montaña. También le encantan el esquí y el mar, la compañía de los buenos ami­
gos, y las polémicas interesantes.

Antonio Largo, (Valladolid, 1960). Obtuvo el título de Licenciado (1982) y


Doctor (1985) en Ciencias Químicas en la Universidad de Valladolid. Realizó estan­
cias postdoctorales en Kingston (New York, USA) con el Prof. Clementi y en la
Universidad de Kent (UK) con el Prof. Boyle, incorporándose en 1989 como
Profesor Titular a la Universidad de Oviedo. Desde 1995 es Profesor Titular en el
Departamento de Química Física de la Universidad de Valladolid. Su trabajo cien­
tífico se ha desarrollado en el campo de la Química Computacional. Sus líneas de
investigación abarcan el estudio de los efectos de correlación electrónica, desarro­
llo de métodos que incluyen explícitamente la correlación electrónica, el estudio de
la estructura de especies radicalarias, o la reactividad y síntesis de moléculas de

X
interés en Astroquímica. Entre sus aficiones destacan la lectura, diversas activida­
des deportivas (tenis, baloncesto, bicicleta, etc.) y disfrutar con sus dos hijos.

Francesc Illas Riera, nacido en Barcelona, realizó sus estudios de licenciatura


y doctorado en Química en la Universidad de Barcelona. Ha desarrollado su activi­
dad docente en las Facultades de Química de Barcelona y Tarragona (hoy pertene­
ciente a la Universidad Rovira i Virgili) y en la de Farmacia. En la actualidad es
Catedrático de Química Física de la Universidad de Barcelona. Su actividad inves­
tigadora en el campo del estudio teórico de ciencia de materiales, de superficies y
de catálisis heterogénea se ha llevado a cabo fundamentalmente en esta universidad,
aunque ha realizado estancias en el IBM Almadén Research Center y en Los
Alamos National Laboratory, ambos en USA y en diversas universidades europeas
como las de Milán, Calabria, Toulouse y París. El Prof. Francesc Illas dedica su
tiempo libre a la natación, al submarinismo y a la práctica de la guitarra acústica.

Josep Manel Rícart Pía, nació en Lleida (1958), estudió, se licenció (1981) y
doctoró (1985) en Química en la Universidad de Barcelona, donde inició su actividad
docente e investigadora. Sus primeros trabajos consistieron en el estudio estructural
de biomoléculas y en el desarrollo de un método semiempírico dentro del formalis­
mo de la teoría de bandas. Actualmente es Profesor Titular del Departamento de
Química Física e Inorgánica de la Universidad Rovira i Virgili de Tarragona y vice­
decano de la Facultad de Química. Ha realizado diversas estancias en Torino, Milano,
Toulouse y París. Sus intereses científicos actuales se centran en el estudio teórico de
superficies, utilizando modelos de cluster, y la adsorción de moléculas, analizando el
enlace y su reactividad como etapas relevantes en catálisis heterogénea. Casado y
padre de dos hijos, enamorado de su familia, es aficionado a la música, la montaña, la
informática y al bricolage. Le gustaría disponer de más tiempo libre.

José María Alvariño. Fue Profesor Titular en la Universidad del País Vasco
(1972-1984) y en la Universidad de Salamanca (1984-1990). Actualmente es
Catedrático de Química Física en la Universidad de Salamanca desde 1990. Realizó
estancias postdoctorales en la Universidad de Mainz (1970-1971), Universidad de
Freiburg (1978-1979), Universidad de Perugia (1988, 1991, 1996). Sus líneas de
investigación comprenden el estudio de las superficies de energía potencial para
reacciones químicas y la dinámica de las reacciones elementales. Sus aficiones son
la lectura (poesía y novela), visitas (museos, arquitectura románica y barroca),
exposiciones (pintura y escultura) y escuchar música (opera y jazz).

José María Lluch López nació en Barcelona en 1955. Licenciado en Ciencias


Químicas y Doctor en Ciencias Químicas por la Universität Autónoma de Barcelona
(UAB) en 1977 y 1981, respectivamente. Profesor Titular de Universidad en la UAB
en 1985. Catedrático de Química Física del Departamento de Química de la UAB
desde 1990. Director del Departamento de Química y miembro de la Junta de

XI
Gobierno de la UAB entre 1992 y 1996. Ha dirigido 15 tesis doctorales y 20 “tesi­
nas” ya defendidas. Ha publicado hasta ahora más de 150 trabajos de investigación
en el campo de la Química Teórica. Campo actual de investigación: Dinámica y
mecanismos de las reacciones químicas, con especial atención a los fenómenos
cuánticos asociados a los movimientos nucleares, las transferencias protónicas
fotoinducidas, las reacciones de la química atmosférica y las reacciones enzimáti-
cas. Actualmente (2000) es el coordinador de la “Xarxa temàtica de Química
Teòrica de Catalunya” y el Delegado del Rector para asuntos académicos y Centros
Adscritos de la UAB. Aficiones principales: la lectura y la práctica de los deportes,
muy especialmente del atletismo.

Florentino Borondo Rodríguez ha sido Profesor Titular en el Departamento de


Química de la Universidad Autónoma de Madrid desde 1985 y actualmente
Catedrático de Química Física (2000). Obtuvo la licenciatura en Ciencias Químicas
por la Universidad Complutense en 1978, y posteriormente el Grado de Doctor en
Química Cuántica por la Universidad Autónoma de Madrid en 1983. Realizó una
estancia postdoctoral en la Universidad de Colorado en Boulder (EE.UU.) con el
Prof. W.P. Reinhardt sobre métodos semiclásicos. En la actualidad su línea de inves­
tigación se centra en el estudio del caos en vibraciones moleculares, prestando espe­
cial atención a las manifestaciones cuánticas del mismo y a la correspondencia entre
Mecánicas Cuántica y Clásica en régimen caótico.

Manuela Merchán, nació en 1956 en Castellón de la Plana. Obtuvo el Grado de


Licenciatura en Ciencias Químicas (1981) y de Doctora en Ciencias Químicas
(1986) por la Universität de Valéncia. Desde 1987 trabaja en la misma como
Profesora Titular de Universidad. Ha sido Profesora Visitante en el Laboratoire de
Physique Quantique, Università Paul Sabatier, Toulouse (Francia) y en el
Department o f Theoretical Chemistry, Chemical Centre, Lund (Suecia). Su interés
investigador se ha centrado en la determinación teórica precisa de propiedades
moleculares, con énfasis especial en las propiedades espectroscopias, mediante la
utilización de métodos ab initio. Entre otras actividades su tiempo libre lo dedica al
estudio y práctica de técnicas holísticas.

Juan Frau nació en 1964 en Palma de Mallorca. Obtuvo su título de Doctor en


Químicas en 1992 y desde 1997 es Profesor Titular del Departamento de Química
de la Universität de les liles Balears. Su campo de trabajo se ha centrado en el estu­
dio de la reactividad química y enzimàtica de los antibióticos b-lactamicos y deri­
vados. Además de su tarea profesional, es un gran amante y practicante del
mountain-bike, así como de las nuevas tecnologías audiovisuales. Otra de sus gran­
des aficiones es el viajar.

Enrique Sánchez Marcos, (Sevilla, 1958), realizó sus estudios en Ciencias


Químicas en la Universidad de Sevilla finalizando en 1980. En 1984 obtuvo el

XII
grado de doctor con la presentación de su Tesis Doctoral que fue dirigida por el
Profesor Juan Bertrán. Realizó estancias postdoctorales (1984-1985) en las
Universidades de Nancy y Toulouse (Francia) bajo la dirección de los Profesores
Jean-Louis Rivail y Jean-Claude Barthelat, respectivamente. En 1987 obtuvo una
plaza de Profesor Titular de Química Física en la Universidad de Sevilla. Con pos­
terioridad ha realizado diversas estancias de investigación en diferentes
Universidades europeas (Salónica, Eindhoven, Oxford), así como en Fuentes de
Radiación Sincrotrón (SRS-Daresbury, LURE-Orsay, ESRF-Grenoble). Sus líneas
de trabajo se han centrado en el estudio teórico por medios cuánticos y estadísticos
de disoluciones, particularmente iónicas, asi como en la medida de éstas por medio
de Espectroscopias de Absorción de Rayos X. Ha recibido el premio de investiga­
ción de la “Real Academia de Ciencias de Sevilla”. En la actualidad es Catedrático
de Química Física en la Universidad de Sevilla (2000). Algunas de sus aficiones son
la práctica de carreras de medio fondo por el Parque de María Luisa, la cría de cana­
rios “gloster”, y el gregoriano y la musica barroca.

Juan Andrés Bort, cursó el primer ciclo de Químicas en el antiguo Colegio


Universitario de Castellón para licenciarse en Ciencias Químicas en la Universidad
de Valencia en el año 1978, donde obtuvo el grado de Doctor en Ciencias Químicas
en 1982 con la Tesis Doctoral dirigida por el Profesor Estanislao Silla. En 1986
obtuvo la plaza de Profesor Titular de Química Física en la Universidad de Valencia
y actualmente es Catedrático de Química Física en la Universidad Jaume I desde
1994. Ha realizado diferentes estancias pre y postdoctorales en el Departamento de
Química y Biología Molecular del Uppsala Biomedicai Center (1981-1984) y el
Departamento de Química Física de la Universidad de Uppsala (1985-1998) traba­
jando con el Profesor Orlando Tapia y en el laboratorio de Química Teórica de la
Universidad Pierre et Marie Curie de Paris (1995-2000) con el Profesor Bernard
Silvi. Sus líneas de trabajo se han centrado en el estudio de la estructura y reactivi­
dad química: caracterización de estructuras de transición y mecanismos molecula­
res en reacciones químicas de interés en síntesis orgánica y catálisis enzimàtica. Sus
aficiones son los deportes (frontenis) y salir al campo con su familia y disfrutar de
los lances y muestras sobre codorniz y perdiz de sus pointers.

XIII
ÍNDICE

CAPÍTULO 1. FUNDAMENTOS
(L Nebot-Gil y J. M. Ugalde)

1.1 Álgebra l i n e a l ....................................................................................................... 1


1.1.1 M atrices..........................................................................................................1
1.1.1.1 Definiciones sobre matrices ...........................................................1
1.1.1.2 Propiedades de la m a trice s.............................................................2
1.1.2 D eterm inantes............. ................................................................................ 3
1.1.3 Espacios vectoriales complejos n-dimensionales .................................... 3
1.1.3.1 Notación de D irac............................................................................ 3
1.1.3.2 Vectores ............................................................................................ 4
1.1.3.3 Operadores en el espacio real detres dimensiones ......................6
1.1.3.4 Operadores en el espacio vectorial complejoN-dimensional .. .7
1.1.4 Cambio base .............................................. ..................................................8
1.1.5 Valores propios ........................................................................................... 9
1.1.5.1 Ecuación de valores propios ........................................................... 9
1.1.5.2 Propiedades de los vectores y valores propios de una matriz
H erm ítica..........................................................................................9
1.1.5.3 Ortogonalización de vectores ...................................................... 10
1.1.5.4 Diagonalización de m atrices.........................................................11
1.1.6 Funciones de m atrices................................................................... 12

1.2 Funciones y operadores ....................................................................................13

XV
1.2.1 Producto interno y ortogonalidad de funciones....................................... 13
1.2.1.1 Series de Fourier.............................................................................13
1.2.2 Expansión en términos de funciones ortonorm ales................................ 14
1.2.3 Relación entre funciones y v ecto res.........................................................15
1.2.4 Funciones propias ......................................................................................15
1.2.5 Conjuntos de bases ortonormales. Algunas funciones especiales.......... 15
1.2.6 Operadores locales, no locales, Hermíticos, normales, de
proyección y de p a rid a d .............................................................................16
1.2.6.1 Operadores locales y no locales .................................................. 16
1.2.6.2 Operadores Hermíticos, anti hermíticos ynormales .................. 16
1.2.6.3 Operadores de proyección ........................................................... 18
1.2.6.4 Operador de paridad ....................................................................19

1.3 Principios generales de la mecanica cuántica .............................................19


1.3.1 El principio de superposición....................................................................19
1.3.2 Variables y observables: la medida en mecanica cu án tica.....................20
1.3.2.1 Definiciones prelim inares.............................................................20
1.3.2.2 Cada oveja con su pareja .............................................................20
1.3.2.3 La medida en la Física C uántica..................................................21
1.3.3 Relación de indeterminación de H einsenberg...................................... .23
1.3.3.1 El principio de indeterminación de H eisenberg......................... 23
1.3.3.2 Desviación cuadrática m edia.........................................................23
1.3.3.3 Relación de indeterminación de H eisenberg..............................24
1.3.4 Ecuación del movimiento de Heisenberg. Constantes de movimiento.
Conjunto completo de observables compatibles (CCOC) .....................24
1.3.4.1 Ecuación del movimiento de Heisenberg .................................. 24
1.3.4.2 Constantes del m ovim iento...........................................................25
1.3.5 Teoremas del virial y del hipervirial........................ ................................25
1.3.5.1 Teorema del hipervirial................................................................. 25
1.3.5.2 Teorema del v iria l.......................................................................... 26
1.3.6 Teoremas de Hellmann-Feynman y electrostático.................................. 26
1.3.6.1 Teorema de Hellmann-Feynman.................... ............................. 26
1.3.6.2 Teorema electrostático ................................................................. 27

XVI
1.4 M omento angular. El e s p ín ................................................................... ............27
1.4.1 Operadores asociados al momento an g u lar..............................................27
1.4.2 Relaciones de conmutación entre los operadores del
momento an g u la r................................................. .......................................27
1.4.2.1 Conmutadores entre componentes del momento angular.......... 27
1.4.2.2 Conmutadores entre cada una de las componentes
del momento angular y L2 ..............................................................28
1.4.2.3 Conmutadores entre las componentes del momento
angular y é s t e ..................................................................................28
1.4.3 Valores propios del momento angular.......................................................29
1.4.3.1 Operadores escalera .......................................................................29
1.4.3.2 Algunas relaciones útiles entre los operadores
escalera y de éstos con los del momento angular........................29
1.4.3.3 Valores propios del momento a n g u la r......................................... 29
1.4.4 Funciones propias del momento angular...................................... ............ 31
1.4.5 El e s p ín ........................................................................................................32
1.4.6 Acoplamiento de momentos an g u lares.....................................................33
1.4.7 Conservación del momento a n g u la r......................................................... 34

1.5 Método de variaciones y p e rtu rb a c io n e s ................................................... .34


1.5.1 Definiendo el contexto............................................................................... 34
1.5.2 Principio variacional ................................................................................. 34
1.5.3 El método variacional ............................................................................... 35
1.5.4 El método de las variaciones lin eale s........... .. . . ..................................35
1.5.5 Extensión del método variacional a estados excitados ..........................36
1.5.5.1 Aplicación a variaciones lineales.................................................. 37
1.5.6 Teoría Rayleigh-Schródinger de perturbaciones
independientes del tiempo .........................................................................37
1.5.7 Teoría de perturbaciones para estados degenerados .............................. 39
1.5.8 Sistemas de dos niveles. A coplam ientos.................................................. 40

1.6 Sistemas polielectrónicos ..................................................................................42


1.6.1 Forma general del Hamiltoniano no relativista....................................... 42

XVII
1.6.2 Aproximación de Born-Oppenheimer......................................................42
1.6.3 Superficies adiabáticas y diabáticas ........................................................ 44
1.6.4 Funciones de onda para sistemas polielectrónicos ............................... 44
1.6.5 Principio de antisimetría ........................... ...............................................45
1.6.6 Aproximación o rb ita l................................................................................ 45
1.6.7 Determinantes de Slater ..........................................................................46
1.6.7.1 Productos de Hartree ................................................................... 46
1.6.7.2 Determinante de Slater ..................................................................47
1.6.8 Expansión de la función de estado exacta. F C I ...................................... 48
1.6.9 Configuraciones adaptadas de e s p ín ........................................................ 48
1.6.9.1 Determinantes restringidosy no restringidos......... .................... 48
1.6.9.2 Configuraciones adaptadas de espín ............................................ 48

1.7 Segunda cu an tizació n ....................................................................................... 50


1.7.1 Definición de operadores de creación y aniquilación ...........................50
1.7.1.1 Operadores de creación ..............................................................51
1.7.1.2 Operadores de aniquilación .................................................... 51
1.7.2 Operadores de aniquilación y creación: relaciones de
anticonmutación.............................................................................. ............51
1.7.2.1 Propiedades de los operadores de cre a c ió n ........................... . .51
1.7.2.2 Propiedades de los operadores de aniquilación......................... 52
1.7.2.3 Relación entre operadores de creación y aniquilación ............52
1.7.3 Configuraciones electrónicas . ........................................................ .. .53
1.7.3.1 Estado del vacío. Propiedades...................................................... 53
1.7.3.2 Determinantes de Slater. Configuraciones electrónicas . . . . . .53
1.7.4 Operadores de excitación y determinantes en el desarrollo FCI ..........53
1.7.4.1 Operador de excitación..................................................................53
1.7.4.2 Desarrollo F C I ............................. ................................................. 53
1.7.5 Elementos de matriz y operadores en el formalismo de la
segunda cuantización............................................... ..................................54
1.7.5.1 Operadores en segunda cuantización........................................... 54
1.7.5.2 Energía de un determinante H artree-Fock.................................. 54
1.7.5.3 Elementos de m a triz .................... ....................................... .. .54

XVIII
1.8 Introducción a la Mecánica E s ta d ís tic a ........................................................55
1.8.1 Introducción................................................................................................. 55
1.8.2 La construcción de la Termodinámica .................................................... 56
1.8.2.1 La primera L e y .............................................................................. 56
1.8.2.2 La segunda Ley ............................................................................56
1.8.2.3 La formulación variacionalde la segunda Ley ...........................57
1.8.2.4 Funciones auxiliares. Transformada de Legendre ..................... 58
1.8.2.5 Ecuaciones de Maxwell ............................................................... 59
1.8.2.6 La ecuación de Gibbs-Duhem.............................. .......................60
1.8.2.7 Equilibrio y estabilidad.............................................................. .61
1.8.2.8 Equilibrio m ultifásico.................................................................... 61
1.8.2.9 E stabilidad..................................................................................... 62
1.8.3 Mecánica E stadística.......................................................... .......................63
1.8.3.1 Colectivos........................................................................................ 63
1.8.3.2 Colectivo Microcanónico ............................................................. 64
1.8.3.3 Colectivo Canónico ...................................................................... 65
1.8.3.4 Conjunto grand-canónico ............................................................. 68
1.8.4 Sistemas de partículas que no interaccionan entre s í .............................. 68
1.8.4.1 El gas de fotones ...........................................................................69
1.8.4.2 Gas de fo n o n es..................................................................... .. .70
1.8.4.3 B o so n e s..........................................................................................70
1.8.4.4 Fermiones................................................. .......................................71
1.8.4.5 Electrones en m e tale s.................................................................... 71
1.8.5 Método de Monte C a rio ............................................................ ................72
1.8.5.1 Propiedades promedio ......... ......................................... .............. 73
1.8.5.2 Trayectorias Monte C a r io ............................................................. 73
1.8.5.3 La estrategia Monte C ario ............................................................. 74
1.8.5.4 Umbrella sam pling..........................................................................\ .77

B ib lio g ra fía ............................................................................................................... 77

XIX
CAPÍTULO 2. MÉTODOS DE LA QUÍMICA CUÁNTICA
(R. Caballol y M. Solá)

2.1 Funciones polielectrónicas ........... ; ......................................................80


2.1.1 Orbitales, determinantes de Slater ........................................................... 81
2.1.2 Forma exacta de la función de onda. Interacción de
Configuraciones.................................... ................................................ .. .82
2.1.3 Reglas para obtener los elementos de matriz ......................................... 83
2.1.4 Configuraciones adaptadas de espín. Funciones
restringidas y no restrin g id as......... .......................................................... 85

2.2 El método H artree-F o ck ..................................................................... .............. 85


2.2.1 Las ecuaciones de H artree-Fock................................................. .............. 85
2.2.1.1 Minimización de la energía. Teorema de Brillouin .................86
2.2.1.2 Operador de Fock. Ecuaciones de H artree-Fock....................... 87
2.2.2 Aproximación LCAO. Ecuaciones de R o o th aan ........... ......................... 88
2.2.2.1 Método Restricted H artree-Fock.................................................. 88
2.2.2.1.1 CAPAS CERRADAS, R H F ........................ ................. . .89
2.2.2.1.2 CAPAS ABIERTAS, O SR H F.................................................... 90
2.2.2.2 Método unrestricted Hartree-Fock........................................ . .90
2.2.3 El problema de la disociación .................................................................. 91

2.3 Métodos post Hartree-Fock p ara determ inar la correlación


electró n ica...................................... ...................................................................... 92
2.3.1 Interacción de Configuraciones ................................................................92
2.3.1.1 Un ejemplo de FCI: la molécula de H2 y su dímero
en base mínima ............................................................................. 93
2.3.1.2 Interacción de Configuraciones truncada: pérdida
de la separabilidad .........................................................................95
2.3.1.3 Correcciones .....................................................................................96
2.3.2 Teoría de Perturbaciones ........................................................................... 96
2.3.2.1 Hamiltoniano de orden cero y perturbación en
la correlación electrónica ..............................................................97

XX
23.2.2 Correcciones a la energía y a la función .....................................98
23.2.3 Separabilidad de las correcciones..............................................100
23.2.4 Partición M0ller-Plesset ............................................................. 102
2.3.3 La aproximación Coupled Cluster ......................................................... 103
2.3.3.1 Estructura exponencial de la función de o n d a .......................... 103
2.3.3.2 Separabilidad de la función C C .................................................. 105
2.3.3.3 Aproximación CCSD ..................................................................105

2.4 Teoría del funcional de la d e n s id a d ............................................................107


2.4.1 Conceptos previos: funciones y matrices den sid ad .............................107
2.4.1.1 Funciones densidad...................................................................... 107
2.4.1.2 Matrices densidad.........................................................................109
2.4.1.3 Funciones de onda monodeterminantales . .............................110
2.4.1.4 Determinante de Slater restringido de capa cerrada ................. 110
2.4.1.5 Determinante de Slater no-restringido....................................... 111
2.4.1.6 Hueco de correlación-intercambio..............................................112
2.4.1.7 Hueco de correlación-intercambio en funciones de onda
monodeterminantales ..................................................................114
2.4.2 Expresión del valor esperado de un operador en
función de la d e n sid a d ............................................................................. 116
2.4.3 Teoremas de Hohenberg y K ohn..............................................................119
2.4.3.1 El primer teorem a.........................................................................119
2.4.3.2 El segundo teorema .................................................................... 121
2.4.3.3 Formulación de Levy restringida................................................ 121
2.4.3.4 Extensión a estados excitados.....................................................123
2.4.3.5 Ecuación fundamental ................................................................123
2.4.4 El método de Kohn y S h a m ................................................. ...................124
2.4.5 Conceptos quím icos..................................................................................128
2.4.5.1 El potencial quím ico............................... .....................................130
2.4.5.2 La d u re z a ...................................................................................... 131
2.4.5.3 Funciones de F ukui....................................................................... 131
2.4.6 Aproximaciones al potencial de correlación-intercambio ....................133
2.4.6.1 Aproximaciones de la densidad local (L D A )............................ 133

XXI
2.4.6.2 Aproximación de la densidad de espín local (LSDA) ............ 134
2.4.6.3 Correcciones de gradiente generalizado a la energía
de correlación-intercambio (G G A )........................................... 135
2.4.6.4 La conexión adiabática. Métodos híbridos .................................138
2.4.6.S. Ventajas e inconvenientes de la teoría del funcional
de la densidad .............................................................................140

B ib lio g rafía............................................................................................................. 141

CAPÍTULO 3. TÉCNICAS COMPUTACIONALES


(J. Novoa y A. Largo)

3.1 Introducción ..................................... .......................................... .....................143

3.2 Programación de o rd e n a d o re s ..................................................................... 143


3.2.1 Ordenadores........... .. ................................................................................143
3.2.2 Codificación de la información en los ordenadores.............................. 145
3.2.3 Lenguajes de alto nivel: compiladores .................................................. 146
3.2.4 Programas y algoritm os...........................................................................146
3.2.5 Diseño de programas: programación estructurada................................ 148
3.2.6 Etapas en la elaboración deun p ro g ram a................................ ............ 149

3.3 Program ación en lenguaje FORTRAN ..................................................... 150


3.3.1 Fundamentos del lenguaje FO R TR A N .................................................. 150
3.3.2 Instrucciones de declaración.................................................................... 151
3.3.3 Instrucciones de asignación aritm ética........................ ......................... 152
3.3.4 Instrucciones de entrada/salida elem ental..............................................154
3.3.5 Instrucciones de ejecución condicional...................... ............................155
3.3.6 Instrucciones de transferencia del control de la ejecución................... 156
3.3.7 Instrucciones de ejecución repetitiva ..................................... .............. 156
3.3.8 Trabajo con variables indexadas............................................................. 158
3.3.9 Lectura y escritura de vectores y matrices . .......................................... 160

XXII
3.3.10 Lectura y escritura con fo rm ato ................................................. 161
3.3.11 Lectura y escritura empleando ficheros en disco .....................164
3.3.12 Programas principales y subprogramas .....................................165
3.3.13 Librerías de subrutinas y funciones ........................................... 169

3.4 Cálculo m a tric ia l.............................................................................................. 170


3.4.1 Introducción y definiciones básicas ...................................................... 170
3.4.2 Operaciones con m atrices........................................................................ 171
3.4.3 Algunas propiedades del cálculo matricial ...........................................172
3.4.4 Principales tipos de matrices . ............................................................... 172
3.4.5 Valores propios y vectores p ro p io s........................................................ 173
3.4.6 Propiedades relativas a conjuntos de vectores.......................................174
3.4.6.1 Transformaciones vectoriales .......................................... .. .174
3.4.7 Inversión de m a trice s...............................................................................175
3.4.7.1 Método de eliminación de Gauss ............................................. 175
3.4.8 Diagonalización de matrices: obtención de valores
y vectores propios ................................................................................... 180
3.4.8.1 Método de Jacobi (matrices simétricas).....................................181

3.5 Cálculo in te g ra l.................................................................................................183


3.5.1 Introducción.............................................................................................. 183
3.5.2 Método de los trap e cio s............................................ ............................ 184
3.5.3 Método de S im p so n ........... ..................................................................... 186
3.5.4 Método de Runge-Kutta..........................................................................187
3.5.5 Cuadratura de Gauss ...............................................................................189
3.5.6 Método de Monte C a rio ......................................................................... .192
3.5.7 Comparación de m étodos............................... ........................................ 193

3.6 Optimización de fu n c io n e s.............................................................. ..............194


3.6.1 Introducción..............................................................................................194
3.6.2 Caracterización de puntos singulares ....................................................194
3.6.3 Mínimos de funciones de una v aria b le..................................................195
3.6.3.1 Métodos de interpolación............... ...........................................195

XXIII
3.63.2 Método del gradiente ..................................................................195
3.Ó.3.3 Método de Newton-Raphson....................................................... 196
3.6.4 Optimización de funciones devarias variab les.....................................198
3.6.4.1 Método S im plex................................................... ....................... 199
3.6.4.2 Métodos basados en el gradiente y el Hessiano ..................... 200
3.6.4.3 Simulated an n ealin g .....................................................................201

3.7 Análisis m u tiv a ria n te ................................. ........................................ ...........203


3.7.1 Objeto y tip o s....................................................................................................203
3.7.2 Análisis de factores (factor analysis)..............................................................203
3.7.3 Análisis de agrupaciones (cluster analy sis)...................................................205

3.8 Optimización y paralelización de program as F O R T R A N ........................206


3.8.1 Optimización de programas ........................................................................... 206
3.8.2 Introducción a la paralelización de programas ............................................209
3.8.2.1 Fundamentos de paralelización .................................................................. 209
3.8.2.2 Paralelización en los ordenadores 0rigin-2000 ....................................... 212

B ib lio g ra fía ............................................................................................................... 215

CAPÍTULO 4. QUÍM ICA CUÁNTICA EN MATERIA CONDENSADA:


APLICACIÓN A L ESTUDIO DE SUPERFICIES, QUIMISORCIÓN,
CATÁLISIS HETEROGÉNEA Y PROPIEDADES DE SÓLIDOS
(F. Illas y J. M. Ricart)

4.1 I n tro d u c c ió n ................................................. .................................................... 217

4.2 La contracción de m odelos..............................................................................219


4.2.1 Modelos finitos .........................................................................................220
4.2.1.1 Cristales ió n ico s............................................................................221
4.2.1.2 Cristales covalentes....................................................................... 222
4.2.1.3 M etales........................................................................................... 223

XXIV
4.2.3 Modelos periódicos .................................................................................225
4.2.3.1 Conceptos básicos de cristalografía........................................... 225
4.2.3.2 Teorema de B lo c h ........................................................................228
4.2.3.3 Modelo del gas de electrones .................................................... 231
4.2.3.4 Método de Hückel aplicado a un polieno c íc lic o ................... 235
4.2.3.5 Método de Extended Hückel p erió d ico .................................... 238
4.2.3.6 Método Hartree-Fock periódico ............................................... 244
4.2.3.7 Métodos periódicos que utilizan ondas planas
y el formalismo del funcional de la densidad ......................... 249

4.3 Aplicaciones al estudio teórico de sólidos ..................................................252


4.3.1 Cálculo de propiedades estructurales de s ó lid o s .................................. 253
4.3.2 Cálculo de estados excitados en cristales y propiedades
relacionadas.............................................................................................. 254
4.3.2.1 Acoplamiento magnético en sólidos iónicos ........................... 255
4.3.2.2 Transiciones espectroscópicas en sólidos iónicos ................. 260
4.3.2.3 Transiciones espectroscópicas en sólidos covalentes . . . . . . .263

4.4 Estudio teórico de superficies, quimisorción


y aplicaciones en catálisis heterogénea.........................................................263
4.4.1 Análisis del enlace de quim isorción...................................................... 264
4.4.2 Estructura geométrica de especies adsorbidas.......................................267
4.4.3 Interpretación de espectros de fotoemisión de especies
adsorbidas .................................................................................................268
4.4.4 Interpretación de espectros vibracionales de especies adsobidas . . . .271
4.4.5 Aplicaciones de interés en catálisis heterogénea.................................. 274

4.5 Comentarios finales ........................................................................................277


Agradecimientos.................................................................................................278

B ib liografía.............................................................................................................278

XXV
CAPÍTULO 5. DINÁMICA
DE LAS REACCIONES QUÍMICAS I
(J. M. Alvariño)

5.1 Introducción ................................................. ....................................................281

5.2 ¿Experimentos imaginarios?: Haces moleculares cruzados . . .............. 282


5.3 Sección eficaz y coeficiente de velocidad. Relaciones de
reactividad en reacciones opuestas................................................................285

5.4 Del laboratorio al cálculo. Cinemática de colisiones: Diagramas


de N e w to n .......................................................................................................... 288

5.5 Métodos teóricos en dinámica química .......................................................296


5.5.1 Métodos cu án tico s....................................................................................296
5.5.2 Método cuasiclásico de trayectorias.......................................................297

5.6 Agradecimientos ...............................................................................................310

B ib liografía.............................................................................. ................................310

CAPÍTULO 6. DINÁMICA DE LAS REACCIONES QUÍMICAS II:


TEORÍA DEL ESTADO DE TRANSICIÓN
(J. M. Lluch)

6.1 Teoría convencional del estado de transición..............................................314


6.1.1 Teoría canónica ........................................ ............................................... 315
6.1.2 Deducción dinámica de la constante de velocidad can ó n ic a ...............318
6.1.3 Formulación termodinámica.................................................................... 321
6.1.4 Cálculo de la energía de activación .......................................................325
6.1.5 Teoría microcanónica........... ....................................................................326

XXVI
6.2 Teoría variacional del estado de tra n sició n ............................................... 330
6.2.1 Coordenadas cartesianas ponderadas ....................................................330
6.2.2 Camino de reacción de mínima energía ............................................ .331
6.2.3 Estados de transición generalizados...................................................... 333
6.2.4 Cálculo de la constante de velocidad canónica variacional................ 336
6.2.5 Algoritmo R O D S ..................................................................................... 342

6.3 Efectos cuánticos a lo largo del camino de reacción ................................344

6.4 Comentario fin a l.............................................................................................. 346

B ibliografía..............................................................................................................347

CAPÍTULO 7. ESPECTROSCOPIA I: ESPECTROSCOPÍA


Y DINÁMICA DE ESTADOS ALTAMENTE EXCITADOS
VIBRACIONALMENTE
(F. Borondo)

7.1 Introducción............................... ..................................................................... 349

7.2 Técnicas experim entales................................................................................. 353


7.2.1 Excitación de sobretonos en infrarojo.................................................... 353
7.2.2 Espectroscopia de bombeo de emisión estimulada .............................. 355
7.2.3 Espectroscopia de fotoextracción de electrones .................................. 365

7.3 Formulación dependiente del tiempo de la espectroscopia..................... 366

7.4 E jem p lo s................................................................................ ...........................370


7.4.1 Modelo y cálculos cuánticos ........................................................ .370
7.4.2 Explorando el espacio de fases con paquetes de o n d a ..........................372
Agradecimientos............. .............................................................. .................... 375

B ib liografía.............................................................................................................. 376

XXVII
CAPÍTULO 8. ESPECTROSCOPÍAII:
INTRODUCCIÓN AL CÁLCULO TEÓRICO DE
ESTADOS EXCITADOS ELECTRÓNICOS MEDIANTE
MÉTODOS MULTICONFIGURACIONALES
(M. Merchán)

8.1. Introducción . . . ...............................................................................................381

8.2 C uestiones......................................................................................................... 383

8.3 El método CASSCF . . ................................................................................... 384

8.4 C uestiones..........................................................................................................388

8.5 El método C A SPT2....................................................................... ..................388


8.5.1 El espacio de interacción de primer orden ........................................... 389
8.5.2 El Hamiltoniano de orden c e ro ...............................................................390
8.5.3 La función de onda de primer orden y la corrección
de la energía a segundo ord en ..................................................................391
8.5.4 El peso de la referencia ...........................................................................393

8.6 C uestiones......................................................................................................... 394

8.7 El método LS-CA SPT2................................................................................... 394

8.8 El método MS-CASPT2 ................................................................................. 396

8.9 Naturaleza de los estados electrónicos excitados de m olécu las.............. 397

8.10 El conjunto de funciones de base monoelectrónica ................................ 400

8.11 Geometría m olecular......................................................................................401

XXVIII
8.12 Cálculo de los momentos de transición y de la fuerza-del
oscilador ..................................................................................... .402

8.13 Selección del espacio a ctiv o ................................................. ........................ 404

8.14 Cuestiones . . . .................................................................................................406

8.15 Ilustración: estados electrónicos excitados 1‘B,,, y 2‘Blu de


la molécula de e t e n o ........................................................................................ 406
8.16 Resumen, conclusiones yperspectivas fu tu ra s.......................................... 408

8.17 Agradecimientos .......................................................................................... .409

8.18 Bibliografía ..................................................................................................... 409

CAPÍTULO 9. MODELIZACION MOLECULAR


(J. Frau, E. Sánchez-Marcos y J. Andrés)

9.1 Fuerzas interm oleculares...............................................................................417


9.1.1 Introducción...............................................................................................417
9.1.2 Interacciones de largo alcance ............................................................... 418
9.1.2.1 Energía electrostática .................... .............................................418
9.1.2.2 Energía de inducción ................................................................. 420
9.1.2.3 Energía de d isp ersió n ..................................................................421
9.1.3 Interacciones de corto alcance ................................................. ..............422
9.1.4 Interacciones por puente de hidrógeno..................................................423
9.1.5 Representación de las interacciones moleculares ................................ 423
9.1.5.1 Sistemas monoatómicos ............................................................. 423
9.1.5.2 Sistemas poliatómicos..................................................................425
9.1.6 “Non-pairwise additivity” ........................................................................ 426

9.2 Mecánica m olecu lar........................................................................................ 427

XXIX
9.2.1 Bases de la mecánica m olecular.............................................................427
9.2.2 Clasificación de los campos de fuerza ..................................................428
9.2.3 Campos de fuerza experimentales ........................................................ 429
9.2.3.1 MM3 (Molecular Mechanics 3) ............................................... 429
9.2.3.2 AMBER (Assiled Model Building and Energy Refinement) .439
9.2.3.3 OPLS (Optimized Potential for Liquid Sim ulations)........... .441
9.2.3.4 CHARMM (Chemistry at HARvard
Macromolecular Mechanics ...................................................... 442
9.2.3.5 MM4 (Molecular Mechanics 4) ............................................... 442
9.2.4 Campos de fuerza universales ............................................................... 443
9.2.4.1 D reiding........................................................................................444
9.2.5 Campos de fuerza mecano-cuánticos .................................................... 445
9.2.5.1 QMFF (Quantum Mechanical Force F ie ld )..............................446
9.2.5.2 CFF93 (Consistent Force Field 9 3 ) ........................................... 447
9.2.6 MMFF94 (Merck Molecular Force Field 94) .......................................447
9.2.7 Conclusiones. Aplicaciones y limitaciones de los
campos de fu e rz a ......................................................................................449

9.3 QSAR (Quantitative Structure-Activity Relationship) ...........................451


9.3.1 Historia del análisis Q SA R ...................................................................... 451
9.3.2 Propiedades y descriptores en Q S A R .................................................... 453
9.3.2.1 Actividad biológica...................................................................... 453
9.3.2.2 Principales descriptores ............................................................. 453
9.3.3 Obtención de una ecuación Q S A R ........... ............................................. 454
9.3.4 Validación de los modelos Q S A R ........................................................... 455
9.3.5 3D-QSAR .................................................................................................456
9.3.6 Aplicaciones Q S A R ................................................................................. 457
9.3.7 Futuro de la metodología QSAR ............................. ............................. 460

9.4 Modelos de solvatación aplicados en mecánica c u á n tic a ..........................461


9.4.1 Modelos discretos ....................................................................................464
9.4.2 Modelos continuos....................................................................................465
9.4.2.1 Aproximación de expansión m ultipolar.....................................467

XXX
9A.2.2 Aproximación de cargas superficiales aparentes . ...................471
9.4.2.3 Definición de la cav id ad ............................................................. 473
9.4.2.4 Ecuaciones de Born generalizadas ........................................... 474
9.4.3 Modelos mixtos discreto-continuos o semicontinuos ......................... 475

9.5 Técnicas de simulación por ordenador basadas en


métodos estadísticos ........................................................................................476
9.5.1 Promedios temporales y promedios sobre conjuntos............................478
9.5.2 Introducción al método de dinámica molecular (D M )......................... 481
9.5.3 Método de Monte C a rio .......................................................................... 484
9.5.4 Cálculo de algunas propiedades termodinámicas y estructurales . . . .488
9.5.4.1 Propiedades termodinámicas...................................................... 488
9.5.4.2 Propiedades estructurales. Funciones de distribución radial . .490
9.5.4.3 Propiedades dependientes del tiempo:
Funciones de correlación temporal ........................................... 492
9.5.5 Aspectos prácticos de las simulaciones por ordenador ....................... 493
9.5.5.1 Elección de la configuración inicial .........................................494
9.5.5.2 Límites del sistema simulado .................................................... 495
9.5.5.3 Control de la fase de equilibrado................................................496
9.5.5.4 Truncamiento del potencial y la convención
de imagen mímima ........................................................ ..............497
9.5.5.5 Análisis de los resultados de una simulación
y estimación de los e rro re s .........................................................499

9.6. Aproximaciones al problema de simular moléculas con un


enorme número de á to m o s............................................................ .......................501
9.6.1 Método Q M /M M ............................. ..................................................... .506
9.6.2 Aplicaciones: Catálisis enzim àtica.........................................................513

B ibliografía.............................................................................................................. 521

XXXI
Capítulo 1

Fundamentos

Ignacio Nebot-GiF y Jesús M . Ugalde*


t Grup de Química Quántica, Departament de Química Física, Universität de Valencia
C/Dr. Moliner, 50, 46100-Burjassot (País Valenciá) Spain
*Kimika Facultatea, Euskal Herriko Unibersitatea,
P.K. 1072, 28080-Donostia, Euskadi, Spain

1.1 Á LG EBR A LINEAL

1.1.1 Matrices
1.1.1.1 Definiciones sobre matrices.

Definiremos:
Matriz: Un conjunto de N x M números ordenados en forma de tabla con N
A \\ A \2 ................... A im
A 21 A 22 .......................... A 2M
filas y M columnas: A =

A n i A n 2 .................... A n m
Elemento de una matriz: Sea A%j = (A )¿. el elemento (i, j) en la que i es el
índice de fila y j el de columna.
Matriz cuadrada: Aquélla en la que M = N
Producto de matrices: En general, el producto de dos matrices no es conmuta­
tivo, así A B B A . Se dice que dos matrices son compatibles para el producto si el
número de columnas de la primera es igual al número de filas de la segunda. De esta
forma, la matriz producto tendrá el mismo número de filas que la primera matriz y el
mismo número decolumnas que la segunda, esdecir, A ( N x M ) 0 B (M xp ) =
C(JVxP)
Matriz columna: También llamada vector, aquélla en la que M = 1. El pro­
ducto de una matriz por un vector resulta en un vector: A ( N x M ) ® a (M x 1) =
b ( N x 1) =* bi = Z j L i M ja j ; Í = 1 , 2 . . . N

1
Índice
Capítulo 1

Matriz transpuesta: Dada una matriz A se dice que la matriz A es su matriz


transpuesta si se cumple que el elemento (i,j) de A es igual al elemento (j, i) de A,
es decir, ( a ) = (A )J¿.
Matriz adjunta: Dada una matriz A se dice que la matriz A^ es su matriz ad­
junta si es su transpuesta y compleja conjugada: A^ = A*, es decir, que se cumple
la siguiente relación entre los elementos de las dos matrices: ( A ^ = (A)*¿. Si la
matriz A es real, entonces A^ = A. Para el producto de dos matrices se cumple que

(A B )f = B fA f (1.1)

Adjunto de un vector: Dado un vector a se define como su vector adjunto el


vector fila = a2 * ' * a N En el caso de un operador A operando
sobre un vector a se cumple que A a = h => = (Aa)^ = o sea, b* =
Z i “] ( a % = ( ^ “^ « ) *
Matriz diagonal: Aquella matriz cuadrada para la que Aij = AaSij.
Traza de una matriz: tr (A) = Yjí Mí
Matriz unidad: 1A = A l = A, de forma que (1) - = <%.
Inversa de una matriz: VA => 3 A “ 1/ A A " 1 = A _1A = 1, si el determinante
de A no es nulo. A -1 es la matriz inversa de A.
Matriz unitaria: es aquélla para la que A^ = A -1 , por tanto AA^ = A^A = 1.
Si A es real, se dice entonces que es ortogonal, ya que A = A -1 y, por tanto,
A A = Á A = 1.
Matriz Hermítica: Se dice que una matriz es Hermítica si A = A^, o sea,
(A ^ = (A)^-. Por definición de matriz adjunta, ( a ^ , , = (A)*¿, entonces
(A )¿ • = (A)*¿, por tanto, todos los Aa son números reales ya que, por definición de
matriz adjunta, (A*) = (A)* = (A )¿¿. Si A es real, entonces A^ = A = A y se
dice que A es simétrica.

1.1.1.2 Propiedades de las matrices.

Se pueden demostrar las siguientes:


- tr (A B ) = tr ( B A ) .
- (A B )-1 = B “ 1A “ 1.
- Si la matriz U es unitaria y B = TJtAU =*■ A = U BTjt.
- Si C = A B y A , B , C son Hermíticas, entonces A B = B A .
- Si A es Hermítica, entonces A -1 , si existe, también lo es.

2
Índice
Capítulo 1

1.1.2 Determinantes

Para toda matriz cuadrada es posible definir su determinante asociado, cuyo valor
es un escalar: A -» det (A) = |A | = *Pí { A u , A 22 , • • • A n n }
Vi es un operador capaz de generar una de las NI permutaciones entre los N
índices de columna del conjunto de números a su derecha a partir de una ordenación
preestablecida o canónica.
Pi es el número de intercambio de dos índices de columna de números contiguos
necesario para restituir el orden canónico.

Propiedades de los determinantes (recordatorio): Se pueden demostrar las si­


guientes:
- Si una fila o columna de un determinante es cero, el determinante es nulo.
- Si la matriz es diagonal: (A )¿J. = => |A| = llfLi Au
- Si se intercambian 2 filas o columnas del determinante, éste cambia de signo.
- |A | = (|A t|) *
- |A B | = |A | |B| (Nota1)
- Si dos filas o columnas de la matriz son iguales entre sí, el determinante es nulo.
-Ia - ^ ia p 1
- Si una matriz es unitaria, entonces AA^ = 1= > | A| ( | A| ) * = 1
- Si U tO U - O y U tU = U U f = 1 => |0 | = |Q|

1.1.3 Espacios vectoriales complejos n-dimensionales

1.1.3.1 Notación de Dirac.

Supuesto un espacio vectorial V N-dimensional complejo, denotaremos por |a) a un


vector cualquiera E V y le llamaremos ket, que se podrá expresar como combinación
lineal de un conjunto de base de kets, en la siguiente forma:

N
| a) = 5 » * (1.2)
Í= 1

en la que será la componente del vector |a) en la dirección |i). Dado que V es
complejo se podrá definir el adjunto de cualquier vector al que llamaremos bra y
escribiremos como (a\ = (|a )^ . Correspondientemente, existirá un conjunto de base
debras, {{ í \} n (i\ — (K)) de tal forma que

N
<a| = 5 > i ( i | (1.3)
Í= 1
1Recuérdese que el producto de escalares es conmutativo

3
Índice
Capítulo 1

1.1.3.2 Vectores.

Representación de un vector en una base: El conjunto de valores {ai}N consti­


tuye la representación de |a) en la base {|¿)}^. La representación de un vector no
es única, porque en un mismo espacio vectorial se pueden definir infinitos conjuntos
de base. Así, si escogemos otro conjunto de base {\o¿)}N, el vector |a) podrá desa­
rrollarse como: | a ) = J 2 a = i Ia ) a a > donde a!a será la componente del vector | a ) en
la dirección \a). Por tanto, una vez escogido un conjunto de base, sus componentes
definen completamente al vector.
Una forma compacta de la representación de un vector en un conjunto de base
dado es una matriz columna, que implica un conjunto ordenado de números, como
las componentes del vector en ese conjunto de base. De igual modo la representación
del bra (a\ en su base de bras {( ¿ | ser^ vector fila — ( aí a\ *• • aN ) •

Producto escalar de dos vectores: Vamos a generalizar la definición ~ct • b =


Yli &ibi al caso de vectores columna complejos. Dadas las representaciones a y b
de dos vectores ~ct y b en la misma base, el producto escalar entre ambas se define
6i
b2
como:: a^b = a\ a\ aN ] = YI íL i aíh - Por consiguiente, el

producto escalar entre dos vectores \a) y |6) se definirá como la operación entre un
bra y un ket que resulta en un escalar:

N
(a | b) = a^b = ^ a*6¿ (1.4)
i—1

Así, la longitud, módulo o norma de un vector se define como la raíz positiva del
producto escalar de un vector por sí mismo (a | a) = a^a = a\ ai — H ii 1^1

Conjuntos de base ortonormales. Función delta de Kronecker: Sea el producto


escalar entre dos vectores,

<a i b) = ^ ai (¿ij i-?)bí j j ) bi (i-5)

para que el último miembro de la ecuación (1.5) sea igual al último de la ecuación
(1.4) es necesario que el producto (i | j) sea nulo si ¿ / j y valga 1 si i = j. Se define
0 S% % "=r— 7
{ . . . , que resume
1 si %= j

4 Índice
Capítulo 1

este comportamiento, se dice entonces que un conjunto de vectores es ortonormal si el


producto escalar de cualesquiera dos de ellos es igual a la función delta de Kronecker:

v I») 11¿> e (l*)}jv =* (* I i) = 5íj (L6)

lo que implica el uso de conjuntos de base ortonormales.2

Componente de un vector: La componente aj de un vector (ket) |o) se puede


obtener multiplicándolo por la izquierda por el vector en esa dirección (j \. En efecto,

(j | a) = O'l s ^ ai = J 2 0' I ai = 5i iüi = ai (L7)


i i i

Análogamente, para un bra (a\ se obtiene cualquier componente multiplicando por la


derecha por el correspondiente bra

lj) -*■ (a i j) = ai (» l t i = Y , a*sv = al (L8)


i i

Conjuntos de base completos. Resolución de la identidad o relación de completi-


tud: Sustituyendo en la ecuación (1.2) la expresión de las componentes del vector,
ecuación (1.7), se obtiene: |a) = J 2 íLi K) ai = K) I a) = (H i |*) (¿|) Ia ) y>
análogamente, para (o|, lo que exige:

E l i ) (¿1 = 1 = ! (i-9)

que se conoce como la resolución de la identidad o la relación de completitud de la


base, condición necesaria para que todo vector del espacio vectorial se pueda expresar
como combinación lineal de los vectores de la base. Es de señalar que el producto
|i) (i\ no es un producto escalar de los dos vectores (cuyo resultado es un escalar),
ni vectorial (cuyo resultado es un vector), sino lo que se conoce como un producto
diádico, el resultado del cual es un operador (la definición general de un operador
se verá a continuación), con la siguiente regla de operación: Al operar |i) (i\ por un
vector \a), 1) se multiplica escalarmente el vector |a) por (i| y 2) el escalar resultante
se multiplica por |¿) . El resultado final es la proyección3 de |a) sobre la dirección
|¿), es decir, |¿) (i | a) = |¿) a¿

2Estrictamente hablando, no es necesario que el conjunto de base sea ortonormal, sin embargo, las
ventajas prácticas de elegirlos ortonormales y la posibilidad de ortogonalizar y normalizar cualquier
conjunto que se escoja, hace que, de hecho, se utilicen siempre los conjuntos de base ortonormales.
3Hay que recordar la diferencia entre la componente de un vector |a) en una dirección |i), que es
a¿, un escalar, y la proyección del vector \a) sobre la dirección |í), que es |¿) a¿, un vector.

5
Índice
Capítulo 1

1.1.3.3 Operadores en el espacio real de tres dimensiones.

Definición de operador lineal: Se define como operador toda regla de operación,


Ó, que permite transformar un vector ~ct, perteneciente a un espacio vectorial V,
en otro b (que puede ser igual o distinto de 7?), perteneciente al mismo espacio
vectorial: V i? E V 3 b E V / Ó~ct = b . Hay_c[ue entender entonces que 0~ct es,
en sí mismo, un vector, sinónimo, por tanto, de b . Un operador se dirá que es lineal
si con cumple la siguiente propiedad:

Ó (a~rf + /? T ) = ad~ct + l3d~ t (1.10)

donde a y (3 son dos escalares cualesquiera.

Representación de un operador en una base { e¡ }3: El resultado de aplicar un


operador cualquiera sobre uno de los vectores de la base 0 ~e¡ será un vector del
espacio vectorial que podrá expresarse, como en la ecuación (1.2) como combinación
lineal de los vectores de la base }3:

3
de¡ = ; i = 1 ’ 2 >3 i 1 -11)
j= i

en la que Oji significa la componente del vector 0~e¡ en la dirección ej. Como la
ecuación (1.11) puede escribirse para los tres vectores de la base, existe un conjunto
de 9 números Oji que pueden escribirse en forma ordenada como una matriz 3 x 3 ,
O, que constituye la representación del operador en la base.

Producto de operadores: Se define el producto de dos operadores A y B como


el operador C = AÍ3 equivalente a la aplicación sucesiva de los dos operadores.
En general el producto de operadores no es conmutativo: A B l f = A ü t = f /
B A l f = B~r" = V . La matriz C, representación del operador producto C en una
base, es igual al producto de las matrices A y B, representación de los operadores A
y B en la misma base.

Demostración: Si C — A B , entonces podemos aplicar C sobre un vector


de la base, obteniendo, según la ecuación (1.11): C ej = Aplicando
el producto A B sobre el mismo vector, obtendremos: A B e j — AYuk ^tBk j =
Efc (»4efe) B kj = Y.k e¡AikB kj = E¿ Efe A k B kj. Para que las dos expre­
siones sean idénticas, es necesario que se cumpla que: Cij = Efc AkBkj-, que es
precisamente la expresión del producto de las matrices A y B.

6
Índice
Capítulo 1

Conmutadores y anticonmutadores: Dado que el producto de dos operadores no


es, en general, conmutativo, podemos definir un operador, llamado conmutador,
como A, B = A B —BA, cuya representación en una base será: [A, B] = A B —
B A . Se dice que dos operadores conmutan si su conmutador vale 0: A, B
0 => A B = BA. Además se define el operador denominado anticonmutador, como
j.4 , £>j = A B + BA, cuya representación en una base será: {A, B} = A B + B A .

1.1.3.4 Operadores en un espacio vectorial complejo N-dimensional.


Extendiendo el concepto de operador ya estudiado podremos decir que un operador
es toda regla de transformación de un vector |a) en otro |ó) (sin excluir la posibilidad
de que |6)sea también el mismo vector |a)):

O |a) =|b) (1.12)


La representación de un operador en una base es unamatriz de dimensión
N x N , que queda completamente determinada aplicando el operador sobre todos
los vectores de la base:

o\i) =J21j) (1.13)


N
=E b>(°h ; *=i, 2,... ív
3=1 3

Los elementos de la matriz que representa al operador O en una base, {|¿)}jy


se pueden obtener multiplicando la ecuación (1.13) por la izquierda por un vector {k |
de la base asociada de bras:

(k\ Ó \i) .=E (kIÓ) Oji=E skjOji=oki (1.14)


Producto de operadores: Dado un operador C que resulta de la aplicación sucesiva
de dos operadores A y Br la representación de C se puede obtener, a partir de la defini­
ción de los elementos de su representación matricial en una base, utilizando la expre­
sión de la resolución de la identidad, ecuación (1.9): Cij = (^1 Á | k) (k | B |j),
que es la expresión de C como producto de las matrices A y B, representación de
los operadores A y B en la base {|i)} N .

Adjunto de un operador: Tomemos el adjunto de la expresión (1.12), teniendo


en cuenta la propiedad (1.1) ( o |a)^ = (\b))^ —> (a\ — (6|, lo que se puede
interpretar como que el adjunto de un operador opera por su izquierda sobre un bra
para dar otro bra. Multiplicando esta ultima expresión por la derecha por |c) y la
ecuación (1.12) por la izquierda por (c\ se obtiene: (a\ 0 11c) = (b | c) y (c| O |a) =

Índice
Capítulo 1

(c | b) y, ya que (6 | c) = (c \ b)*, entonces (o| C?t |c) = (c| Ó |a)*. Esta expresión
vale para cualquier par de vectores del espacio vectorial, por tanto, también para dos
cualesquiera de los vectores de una base, así que (z| \j) = { j \ 0 |¿)* o (o * ) =
(0 )* ¿ que corresponde a la definición de la matriz adjunta.

Operador Hermítico: Es aquél que cumple 0 = 0 ^ y, por tanto, O = =>


(i\dUj) = (i\d\j) = {j\o\i)*

1.1.4 Cambio de base

Sea un espacio vectorial N-dimensional complejo, en el que definimos dos con­


juntos de base ortonormales y completos {\i)}jy / {i\ j) = $ij N) (^1 ~ i y
{\a)}N / (a | (3) = 5ap \a ) (a \ = 1- Busquemos la relación entre los dos con­
juntos de base. Para ello utilizaremos la relación de completitud de una base sobre
un vector de la otra:
\a) = i \ a ) = N>( i I ol) = Ez \i) u ia 5 OL = 1,2,... N
l¿> = í N> = E a 1«) ( « 1 0 = E a 1«) U*a = E a 1«) (U f) Q. ! * = 1, 2, . . . N
Podemos concluir que los dos conjuntos de base están conectados por una
única matriz U cuyos elementos se calculan como:

u ia = { i \ a ) (1.15)

Esta matriz es, además, unitaria => I F U = UTjt = 1

Demostración: A partir de las expresiones de la ortonormalidad de las dos


bases, insertando en cada expresión la resolución de la unidad de la otra base, se
llega a: = (i \ j ) = (¿| 1 |j) = <¿ | a) {a | j ) = E Q UiaU*a =» U U t = 1 y,
análogamente, para 5ap se llega a IJ UJ = 1

Relación entre representaciones distintas de un mismo operador: Sea un ele­


mento de la representación del operador O en la base (la )} ^ , Qap — (a| O \(3). Si
introducimos la expresión de la resolución de la identidad a ambos lados del ope­
rador y desarrollamos para la otra base {|*)}yy, teniendo en cuenta la definición de
la matriz unitaria de cambio de base, ecuación (1.15) entonces, Qap = (a| O \(3) =
E i E i (« I i) <*l O Ij ) {j I P) = E i E ¿ ü ic P ijU tf = > n = U tO U . Así que la
matriz unitaria que permite transformar un conjunto de base en otro, también permite
transformar la representación de un operador en una base en su representación en la
otra. Para las dos representaciones (matrices), la traza de la matriz es la misma. Esta
relación es de extraordinaria importancia en Química Cuántica, puesto que, como se
verá en el apartado siguiente, apartado 1.1.5, el objeto de ésta, desde el punto de vista

Índice
Capítulo 1

numérico, consiste en la búsqueda de la matriz unitaria que transforma una repre­


sentación cualquiera de un operador (principalmente el operador Hamiltoniano) en
su representación diagonal.

1.1.5 Valores propios


1.1.5.1 Ecuación de valores propios.
Dado un operador O, cuya representación en una base cualquiera O, no es
diagonal, siempre es posible encontrar una matriz unitaria U que transforme O en
otra representación O = U"^ O U que sí sea diagonal, es decir, que

^ ct(3 ~ ^j3 ^o¿(3 (1.16)

entonces, aplicando en esta expresión la definición de elemento de matriz, ecuación


(1.14), a ftap y la condición de ortonormalidad del conjunto de base, ecuación (1.6),
a Sa/3, se obtiene: (a\ O \¡3) = up{a. | (3) que se cumple cuando

d \ P ) = u ) P \P) (1.17)

expresión que se conoce como ecuación de valores propios de O , siendo {\o¿)}N el


conjunto de sus vectores propios y el conjunto de sus valores propios aso­
ciados. Puede interpretarse como que cuando el operador actúa sobre uno de sus
vectores propios lo transforma en otro paralelo a él. Otra conclusión muy importante
de (1.16) es que la representación de un operador en la base de sus vectores propios
es diagonal, siendo los elementos de la diagonal los valores propios.

1.1.5.2 Propiedades de los vectores y valores propios de una matriz Hermítica.


Los valores propios de un operador Hermítico son reales. En efecto, a partir de
la ecuación (1.17) se puede escribir

( P \ & = (P\u^ (1.18)

multiplicando la ecuación (1.17) por la izquierda por (f3\ y la ecuación (1.18) por la
derecha por |/3) se obtiene, teniendo en cuenta que el operador es Hermítico y que,

P°rta„!0,a = d t:^ j „5 = (^ | | t ^ = ^ | O |/J) } ^ “ í = ^ . donde se ha


tenido en cuenta que los vectores están normalizados.

Los vectores propios nodegenerados de un operador Hermíticoson ortogonales


entre sí.4 Tomemosla ecuación de valores propios para \a) y \/3): O \a) = u a \a)
4Se dice que dos vectores propios son degenerados cuando sus valores propios asociados son iguales.

9
Índice
Capítulo 1

y {¡3\ Ó = (/3\ u;p, donde üüa ^ up, por hipótesis, y se ha tenido en cuenta que
el operador es Hermítico y que los valores propios son reales. Multiplicando la
primera por la izquierda por {(3\ y la segunda por la derecha por |a) se obtiene:
í (P\ O \a) — Cüa {(3 | a) 1 ( \ ¡o \ \ n / \ / n
l[ {(31
/ r\ O i r l \ Jí ^ (Lüa ~ 10^ (ft \ a ) — 0? como (cua —up)
ñ \ \a)\ = ujp((3\a) 0 =¿>
((3 | a) = 0.

1.1.5.3 Ortogonalización de vectores.

¿Que pasa si los vectores son degenerados? Sea un conjunto de vectores degenerados
de dimensión M , {|o¿)}M que, en principio no son ortogonales (V | a ) , |(3) G {\ot)}M
(a \ (3) = S ap): se pueden “ortogonalizar”. Los métodos de ortogonalización se
basan en la siguiente propiedad de los vectores degenerados: Cualquier combinación
lineal de vectores propios degenerados de un operador Hermítico es también un vec­
tor propio del mismo operador y con el mismo valor propio asociado.

Demostración: Supongamos inicialmente dos vectores (normalizados) dege­


nerados, |1) y |2), ( o \a) = u \o¿) ; a = 1, 2^, que no son necesariamente ortogo­
nales, {1 | 2) = S O.5 Dados dos escalares x e y, teniendo en cuenta que el ope­
rador es Hermítico y lineal, ecuación (1.10), O (x |1) + y |2)) = xO |1) + yO |2) =
xüj |1) + yuj |2) = w (x |1) + y |2))

Método de ortogonalización jerárquica o de Schmidt: Construimos dos nuevos


vectores, \I) y |II'), combinación lineal de | 1 ) y |2): lJ > = im-
II ') = |1) + c |2) ’ im
poniendo la condición de que |/) y \ I I f) sean ortogonales, 0 = (I | I V ) = (1 | 1) +
c( 1 | 2) = 1 + cS, de donde c = — así |I V ) = |1) — S ~ l |2). Normalice­
mos ahora |I I 1), para ello obtenemos un nuevo vector |I I ) — N |II'), resultando:
\II) = ( S - 2 - l ) - 1 / 2 ( \ l ) - S - ' \ 2 ) )

Método de ortogonalización simétrica: Buscaremos una matriz X tal que genere


un nuevo conjunto {|o¿')}M que sea ortonormal: \af) — Y ^ = i \a ) > $a'p' =
(a' | ¡3') =>' X ^SX = 1, ésta es la condición que debe cumplir cualquier matriz X
que sirva para ortogonalizar {\ot)}M. Para el método de la ortogonalización simétrica
se escoge X = S ” 1/ 2.

Método de ortogonalización canónica: Se escoge la matriz X = s -1/ 2 en la


que s = U^SU es una matriz diagonal. Así que, como conclusión, se puede decir
5El desarrollo se hará para dos vectores, pero se puede generalizar fácilmente a cualquier otro
número de vectores degenerados

10
Índice
Capítulo 1

que siempre es posible formar un conjunto ortonormal a partir del conjunto de los
vectores propios de un operador Hermítico.

1.1.5.4 Diagonalización de matrices.

Dada la representación, en principio no diagonal, de un operador O en una base


{|i)}N, el problema consiste en encontrar la transformación unitaria U tal que O =
U^OU y O sea diagonal. Diremos pues que U diagonaliza a O. Los elementos de
O, uja, son los valores propios de O.
Busquemos una expresión de la ecuación de valores propios que relacione los
valores propios de ia matriz con la transformación unitaria. Partiendo de la ecuación
de valores propios: O \a) = üüa \a), se introduce la resolución de la identidad para un
conjunto de base ortonormal completo cualquiera: O |i) (i | a) = u a \a). Multi­
plicando por la izquierda por (j | resulta: U I & N) I a ) —u ot (j | &). Teniendo
en cuenta la definición de los elementos de las matrices O y U se obtiene:6

£ O j iU ia = L0a U j a - j = 1 , . . . N => OU“ = u aU a (1.19)


i

donde U a es la columna a-ésima de la matriz U y es la representación del vector


propio a-ésimo en la base {|¿)}^.
La diagonalización es un problema numérico y existen numerosos algoritmos
diseñados para diagonalizar eficientemente distintos tipos de matrices de distintos
tamaños. Veremos dos ejemplos sencillos.

Método del determinante secular: Podemos reescribir la ecuación (1.19) pasan­


do el segundo miembro al primero: O U a —u a\] a = 0, que, para poder sacar
factor común U a por la derecha, requiere introducir la matriz unidad 1 en el lugar
adecuado:(O — cjal) U a = 0, que es un sistema de ecuaciones lineal y homogéneo
en los elementos de U a , conocido como sistema secular de ecuaciones. La solu­
ción trivial es U a = 0, pero no sirve de nada. La otra posible solución consiste
en reducir el sistema eliminando las dependencias lineales entre las ecuaciones, para
lo cual el determinante de los coeficientes (determinante secular) ha de ser nulo:
|0 —uüal\ = 0, que es una ecuación de grado N en uja y, resuelta, proporciona N
valores de uja. Llevando cada valor de u a al sistema secular, junto con la condición
de normalización del vector propio (U a )^ (Ua ) = 1 , se obtienen los valores de los
elementos del vector propio correspondiente. La matriz de diagonalización completa
se puede construir como: U = u 1 u2 N u
6Hay que señalar que a en U a no es un exponente, sino el ordinal que denota el vector propio
correspondiente.

11 Índice
Capítulo 1

Método de las rotaciones: Tomemos el ejemplo de una matriz simétrica (Hermíti-


" O u 0 12 "
ca y real) 2 x 2,7 O . Partamos de la ecuación
0 12 O 22

UJ = V ^ O \J (1.20)
Además, los elementos de la matriz U están ligados entre sí por la misma definición
de matriz unitaria U ^U = 1.Así, los 4 elementos de la matriz U están ligados entre
sí por 3 ecuaciones, porlo que únicamente existe 1 grado de libertad. Podemos tomar
una matriz unitaria que dependa de un parámetro 9 como, por ejemplo, la matriz de
TT eos9 sin# TT ^
rotaciones: U = . ^ . . Utilizando esta matriz en la ecuación (1.20) se
sin v —eos u v / .
llega a los siguientes resultados:
1. A partir de los elementos de fuera de la diagonal de U ^O U , que han de ser
nulos para que cu sea diagonal, se puede obtener el valor de 9, que llamaremos
6>o, que es: 0O = \ arctan 0 ?°-6 22 '

2. Con este valor de 9q, a partir de los dos elementos diagonales de O U , se cal-
^ 1 = O 1 1 eos2 9o + O 22 sin2 9q + Oi2 sin 29o
culan los valores propios :
^2 = 0 11 sin2 9q + 022 eos2 9q - O 12 sin 290

3. Además, los vectores propios se pueden obtener sustituyendo el valor de 9q en


eos 9o sin 9o
las columnas de la matriz U: U 1 U2 En
sin 9q - eos 9q
el caso de que la matriz fuera mayor de 2 x 2 (que es el caso más frecuente) se
podría diseñar un algoritmo en el que, por aplicaciones sucesivas de matrices
de rotación, se anulasen los términos de la matriz dos a dos.

1.1.6 Funciones de matrices


Cuando se trata de calcular funciones de matrices, como por ejemplo: A 1/ 2, A -1 ,
exp (A) = 1 + jf A + jj-A2 + *• • o, en general, / (A) = Y^=o CnA71, se requiere,
en general, el calculo de potencias de la matriz A n en la que n puede valer cualquier
valor real, positivo o negativo. El procedimiento general sigue los siguientes pasos:
1. Se diagonaliza A , obteniéndose la matriz diagonal a = U ^A U
2. Se calcula a n, elevando a n cada elemento de la diagonal, (a™Vi), o, en gene­
ral, se calcula / (a), obteniendo / (a¿) para cada elemento de la diagonal.
3. Se “desdiagonaliza” / (a), llegando a A n = U a nU t o / (A) = U / (a)
En el caso del cálculo de la inversa de una matriz, si uno de los valores propios es
nulo, no se puede calcular la inversa, y además, el determinante de la matriz es nulo.
7La generalización a matrices de dimensiones mayores es sencilla.

12 Índice
Capítulo 1

1.2 FU N CIO N ES Y OPERADORES

1.2.1 Producto interno y ortogonalidad de funciones

1.2.1.1 Series de Fourier.

Desarrollos en serie de funciones: En este apartado aplicaremos los conceptos


desarrollados para espacios vectoriales a conjuntos de funciones, que se comportan,
en las condiciones apropiadas, como vectores, por ejemplo, las series de Fourier:
Sea una función / (x) definida en el intervalo a < x <b. Escojamos un conjunto
(de base) completo de funciones { ( x) }^, definidas en el mismo intervalo, a las que
se les exige la propiedad de ser “ortonormales”, en el siguiente sentido

(1.21)
Esta última expresión constituye además una definición implícita del producto escalar
de dos funciones g (x) y h (x), definidas en el mismo intervalo, g (x) f (x) dx,
que se denomina producto interno. La función / (x) se puede desarrollar como
combinación lineal de las funciones de la base:
oo
/ (x) = Z CiUi (1.22)
Reflexionando un poco, el concepto es el mismo que el que se utiliza para el ajuste
de funciones a polinomios, donde las funciones de base serían las potencias de x
(debidamente ortonormalizadas).

Coeficientes de la expansión: Multiplicando la función / (x) por una función de


la base Uj (x ) e integrando en el intervalo de existencia de las funciones, sustituyendo
después la expansión (1.22) y teniendo en cuenta la ortogonalidad de las funciones,
ecuación (1.21), se obtiene el coeficiente de la serie, correspondiente a uj (x):
J a U 3 ( X ) f ( x ) d x = EiSo J a Uí ( X ) U i (*) d x = £ £ o c i 6 i j = c j
Las únicas condiciones que deben cumplirse son:
1. f (x) ha de ser continua en el intervalo [a, 6], excepto por un número finito de
discontinuidades finitas.
2. / (x) ha de tener un número finito de puntos extremos en el intervalo [a, b\.

Series de Fourier: Las Series de Fourier se utilizan para la representación de fun­


ciones periódicas, y las funciones de base convenientes resultan ser: A n sin (nx) +
B n eos (nx) definidas en [0,7r], o bien é nx si el intervalo es b —a = 2ir. Por ejemplo,

13
Índice
Capítulo 1

la función discontinua / (x) = | j l ^ o < x < 7r ^ Puede ajustarse en serie de

Fourier y el resultado8 es: / (x) = ^ sin (x) + | sin (3x) + ^ sin (5x) + • ■

1.2.2 Expansión en términos de funciones ortonormales


Podemos generalizar las conclusiones del apartado anterior para cualquier conjun­
to completo de funciones complejas ortonormales de dimensión infinita { 4>i (x )} ^
definidas en [a, b] que cumplan:
rb
ip* (x) ipj (x) dx = Sij (1-23)
/
Ja
de tal forma que cualquier función a (x ) definida en [a, b] pueda escribirse como:
oo
a (x ) = Z (x ) a¿ (1-24)
¿=o

en la que los componentes, a¿, pueden calcularse como: aj = frb aa ^ (x ) a (x) dx.
Sustituyendo esta última expresión en la ecuación (1.24) se obtiene:
rb
a (x) =(x ) / ix ') a (x>) dx' = f (xr) dx 1
Ja Ja

Definiendo una función 6 (x —x f) = x¡jí (x) (xf), llamada función 5 de


Dirac, se obtiene:
rb
a (,x ) = / 8 (x — x f) a (xf) dxf (1.25)
Ja
que vale para cualquier valor de x .9 El sentido de la función 5 de Dirac queda más
claro al escribir la ecuación (1.25) para un valor dado de x , como por ejemplo, xq:
íb
a (xq) = S (xo — x f) a (xr) dxr (1.26)
Ja

Así, la función 8 de Dirac permite extraer el valor de la función a (x f) para un valor


dado de la variable. Para conocer un poco más de las propiedades de esta función,
dado que laexpresión(1.26) es válida para cualquier x $, también lo será para xq =
0, por lo que,aceptando que 8 (x — x r) — 8 (x f — x): a (0)= ó (x r) a (xf) dx'.
Además, como esta expresión es válida para cualquier función a(x), también lo será
para a(x) = 1, por lo que: 8 (x ' ) dx' = 1. Se concluye, pues, que la función
8 (x — x') es una función de área unidad que extrae el valor de una función cualquiera
a (x) (definida en el intervalo adecuado) para cualquier valor de la variable x.
8Un ejercicio interesante consiste en representar la función escalera problema, y las aproximaciones
sucesivas que resultan de tomar 1, 2, 3 ... términos en la expresión siguiente.
9Conviene distinguir entre x', variable de integración, y x , que es la variable de la función a (x).

14
Índice
Capítulo 1

1.2.3 Relación entre funciones y vectores

La analogía entre funciones y vectores queda patente introduciendo la notación de


i r • I \^i) — l¿) (%) I \a)*->a(x)
Dirac, de forma que si llamamos < . ; x => < , , , ' , se
[ V p i\ = \A (x ) [ (a \ a (x )
puede definir el producto interno de dos funciones cualquiera, / (x) y g (x), definidas
en un mismo intervalo [a, b] como ( / | g) = j ah f* (x) g (x) dx. El producto interno
no es, pues, más que la regla de operación para el producto escalar entre funciones.
Podemos entonces generalizar todas las conclusiones del apartado anterior, de forma
que la ortonormalización de las funciones de base, ecuación (1.23), se puede expresar
como (i | j) = 8ij, la componente de la función a (x) para la función de la base
ipj (x) será aj = (j | a) y podemos escribir la relación de completitud de la base
como 1 = K) (¿I-

1.2.4 Funciones propias

Operadores: Definiremos un operador, O, como la regla de transformación de


una función a (x) en otra b (x), expresada como O a (x) = b (x), o como O \a) ='\b)

Ecuación de valores propios: Un caso particular aparece cuando la función trans­


formada \b) resulta ser paralela a la original |a), es decir, que |b) = k\a), siendo
k un escalar. Podremos escribir, generalizando: Ocf)a (x) = coa(f)a (x) ^ O \a) =
uja \a). Diremos entonces que <j>a (x) es una función propia de O siendo u a el va­
lor propio asociado. De acuerdo con lo visto en el apartado 1.1.5, si el operador es
Hermítico, sus funciones propias serán ortogonales entre sí: ((f)a \ <f>p) = 5ap
f </>* (x) <j)p (x) dx = 5ap y sus valores propios asociados serán números reales:
uja = (a\ 0 \ a ) — f </>* (x) Q(f)a (%) dx.

Representación de un operador en una base: Dada una base { |^ (x))}^ pode­


mos encontrar la representación en la base aplicándolo sobre las funciones de la base:
Oipi (x) = Ylj (x ) Oji de forma que Oji = / ^J (x) Oípi (x) dx — (j \ 0 |i)

1.2.5 Conjuntos de base ortonormales. Algunas funciones especiales

La solución de ecuaciones diferenciales permite la obtención de conjuntos de fun­


ciones ortonormales completos. En muchos casos, la dificultad consiste en demostrar
la completitud. En cualquier caso, constituyen buenos ejemplos, además de las series
de Fourier ya mencionadas, las potencias de x, xn, debidamente ortonormalizadas,
los polinomios de Legendre, de Hermite, de Laguerre, los armónicos esféricos... Los
textos especializados de matemáticas incluyen una descripción detallada.

15
Índice
Capítulo 1

1.2.6 Operadores locales, no locales, Hermíticos, normales, de proyección y de


paridad

1.2.6.1 Operadores locales y no locales.

Sea un operador O tal que O a (x) = b(x). Se dice que un operador es local cuando,
para calcular el valor de b (x = xo), es decir, el valor de la función para un punto da­
do, se requiere conocer la función a (x) únicamente en el entorno de xo, por ejemplo
el operador O —
Un operador es no local cuando, para el cálculo del valor de b (x = xo), requiere
conocer la función a(x) en todo el intervalo de existencia [x i,x 2 ]. Típicamente
se trata de operadores integrales y su regla de operación se escribe como: b (x) =
Ixi O (x, x') a (xr) dx'. Un ejemplo clásico es la función <5de Dirac.

1.2.6.2 Operadores Hermíticos, antihermíticos y normales.

Definiciones:
- Se dice que un operador es Hermítico si 0 = 0^.
- Se dice que un operador es antihermítico si O = — .
- Se dice que un operador A es normal si conmuta con su adjunto A, /U = 0. Es
evidente que todo operador Hermítico es normal, la inversa, en cambio, no es cierta.
Igual que todo número complejo se puede descomponer en la suma de una parte
real y otra imaginaria, c = a + ib, siendo a y b dos números reales, un operador
cualquiera se puede descomponer en la suma de una parte Hermítica y otra anti-
hermítica. Dado que i puede considerarse como un operador antihermítico, ya que
¿t — — —i 9para un operador cualquiera, A:

A = A + iB (1.27)

siendo A y B dos operadores Hermíticos y, por tanto, Á) = Á — iB. Podremos


entonces calcular A y B como A = ^ (ji + y B = ^ (ji — A ^ . Así, la forma
general de un operador será: A = | ^A + A ^ + \ ^A —A ^ .
El conmutador de un operador con su adjunto vale: A,At = 2i B , A que
puede demostrarse a partir de la forma general del operador, ecuación (1.27). Se ve,
por tanto, que un operador es normal si los dos operadores Hermíticos en los que se
descompone conmutan entre sí.

Teorema I: Si un operador A es normal y f'ipk) es una de sus funciones propias


con valor propio asociado , es decir, A | ^ ) = | ^ ) , entonces se cumple que
la función es también propia del operador adjunto y el valor propio asociado es el
complejo conjugado del valor propio de A, es decir, A^ | ^ ) = |

16
Índice
Capítulo 1

Demostración: Sea el valor promedio del operador —A¿.j —A£j con


la función {^k\ ( a — (A* —A^j \ipk), como los operadores A y A* conmu­
tan, los operadores —A/,:j y ¡ —AjQ, que se diferencian, únicamente en una
constante, también conmutarán, así que podremos escribir:

(A - Afc) (At - At ) ¡fa) = m (At - At ) (A - Afc) |^ } (1.28)

Como vimos en el apartado 1.1.3.4, un operador adjunto puede entenderse como un


operador que actúa por su izquierda sobre un bra, así que la expresión (1.28) puede
entenderse como el cuadrado del módulo del vector \^k)- Además, como
A \%jjk) = Xk l'ipk), dicho módulo es nulo, así que: (?/^| —A/^ |^ ) =
0, expresión que también es el cuadrado del módulo del vector ^A^ — l'ipk), que
será, por tanto, también nulo, así que A^ \ípk) — 1 ^ ) como se quería demostrar.

Teorema II: Si dos operadores Hermíticos, A y B, conmutan, existe al menos un


conjunto completo de funciones que son funciones propias de ambos operadores

Demostración: Si A y B son Hermíticos y conmutan, ^4, ' = 0, entonces el


operador A = A + iB será normal, |a , A^j = 0 . Para una función propia cualquiera
de A, l'i/jk), con su valor propio asociado, Ák, tal que A \ípk) — Xk |ipk), aplicando el
Teorema I, podemos escribir: A^ |fipk) = Escribiendo Ak = ak + ibk, sien­
do ak y bk dos números reales, las ecuacionesde valores propios de A y A^ serán:
( Á + i § ) \^ k) = (ak + ibk) l'ipk)
>^ J, . Sumando y restando las dos expresiones an-
[ A - iB j \i¡>k) = (ak - ibk) l'fik)
i . í A l'ibh) — l'&k) ^ i - i i
tenores se obtiene: < - ; , , ! •Como la anterior demostración es valida
\ B\ipk) = bk \'i/jk)
para cualquiera de las funciones propias de A, el teorema queda demostrado.10

Teorema III: Si A es un operador normal que conmuta con un operador Á y |^k)


y l'ipi) son dos funciones propias no degeneradas de A, entonces se cumple que el
elemento de matriz | A | ^ ) = 0.

10Existe también el teorema inverso, es decir, que si existe un conjunto completo de funciones propias
de dos operadores Hermíticos, entonces estos operadores conmutan, pero este teorema es menos útil y
su demostración se deja al lector curioso (y avezado). En todo caso sería prudente una consulta al libro
de F.L.Pilar (véase las referencias bibliográficas de este capítulo).

17
Índice
Capítulo 1

Demostración: Sea ^ ‘f k\ IV’fc) l ^ desarrollando:


A11 >t) = m) J
(tpk\A\Xeipe) = (ipklAAl'ipe) = {i>k\ A A -l^ t ) = i^ k ^ k A tpe

de donde se deduce que (Xe - Afc) (tpk IA\ipe) = 0 => j ^ 0 ’ C°~


mo se quería demostrar.

1.2.6.3 Operadores de proyección.

Sea un espacio vectorial V de dimensión N (que puede ser infinita) y definimos un


subespacio vectorial W C V de dimensión M < N. La relación de completitud
para una base de V será 1 = K) (¿|- Podemos definir un operador de proyección
(proyector), V, sobre W, que será: V = YaL\ N) (¿|- De igual forma el proyector
sobre el subespacio complementario de W, Q = 1 —V — Ya=m+i K) (^1* P°r
ejemplo, en el espacio real de tres dimensiones la relación de completitud será: 1 =
i i *+ 3 3 m+ k k *. El proyector sobre el plano X Y será: V x y — i i *+ j j
el proyector complementario sobre el eje Z será: Qz = 1 —V x y — k k *. Se puede
verificar que aplicando V x y sobre un vector ~ct = i ax j ay + k az se obtiene:
VxY~^ = i ax + j ay.

Propiedades de los operadores de proyección:

1 . Hermíticos: = |¿) <¿|)f = E¿ (|¿) <¿|)f = E ¿ |*) {i\ = V

2. Idempotentes: V 2 = V
V 2 = E f í i I*) (¿I E j i l Ió) 01 = E i E ¿ \i) Si, 01 = E¿ l¿) (¿I = v

Diremos, por tanto, que todo operador Hermítico e idempotente es un proyector,


aunque la afirmación inversa no es necesariamente cierta, porque hay proyectores no
Hermíticos. Una forma conveniente de operador de proyección sobre una dirección
dada, por ejemplo la j, es la siguiente: Vj = Ui^j siendo {ují .. .u j] los
valores propios de Ó.

Descomposición espectral de un operador: Tomando la ecuación de valores pro­


pios de un operador, O \a) = u a \a), introduciendo primero la relación de completi­
tud de la base, 1 = \P) (P\> entre el operador y la función, y después el operador
en el sumatorio y aplicando el operador sobre la función a su derecha se obtiene:
( S / 5^/3 \/3) (/?|) \oí) = Wql\ol) => O — Ypujp |/3) (¡31. La conclusión final es que se
puede expresar el operador como un desarrollo sobre sus valores y vectores propios.

18
Índice
Capítulo 1

1.2.6.4 Operador de paridad.

El operador de paridad II se define por su acción sobre una función / (x, y, z) de


forma que U f (x, y,z) = f ( - x , - y , - z ).

Valores y vectores propios de II: Tomemos la ecuación de valores propios del ope­
rador paridad: U g ( x , y , z ) = Cig(x,y,z). Como, evidentemente U2f (x, y, z) =
n / ( —x, —y, —z) = f (x, y, z), podemos concluir que el valor propio de tí 2 es 1 ,
así que cf = 1 , por lo que = ± 1 , de esta forma, g (x, y, z) = ±g (—x, —y, —2).
Diremos, pues, que existen funciones pares (valor propio +1) e impares (valor propio
-1). Podemos estudiar la relación de conmutación de II con el operador Hamilto-
niano H = T + V. Como T incluye las coordenadas (x, y, z) al cuadrado, II
y T conmutan. Así que ? í,n = . Si V es una función par, entonces
¡V, ñ = 0, puesto que: UV (x, y , z) f (x , y,z) = V ( - x , - y , - z ) f ( - x , - y , - z )
= V (x, y, z) f ( - x , - y , - z ) = V (x, y , z) U f (x, y, z).
Por tanto, cuando V es par, T i y H conmutan, por lo que las funciones propias de
Tí tendrán comportamiento de paridad. Como veremos en el apartado siguiente, el
hecho de conmutar con el operador Hamiltoniano implica una ley de conservación,
que constituye una de las leyes fundamentales de la Física (Leyes de conservación o
de violación de la paridad). En cualquier caso, el comportamiento de paridad tiene
una aplicación práctica, puesto que las integrales de funciones impares son nulas.

1.3 PRINCIPIO S GENERALES DE LA M EC Á NIC A CUÁNTICA

1.3.1 El principio de superposición

Las funciones de estado forman un espacio vectorial complejo de dimensión infinita.


Se postula que las soluciones de un operador Hermítico forman un conjunto completo
que puede usarse como conjunto de base del citado espacio: O |ipa) = uja \cpa) —»
a = 0, 1 , . . . 00, de forma que cualquier función de estado |^ ) podrá expresarse
como combinación lineal de las funciones de la base: |\I>) — l^a) ¿a, que
es la expresión del principio de superposición. Su interpretación física implica
que cualquier estado del sistema podrá considerarse como una superposición de las
soluciones de cualquier operador asociado a un observable del mismo sistema.11 La
superposición obedece a ciertas propiedades:
1. El orden de superposición es irrelevante.
2. El proceso de superposición es simétrico entre los estados implicados.
3. La superposición de un estado consigo mismo no lleva a un nuevo estado,
sino que reproduce el mismo estado otra vez. Las funciones de base marcan las
11Solo hay que hacer una pequeña observación. El número de sumandos es infinito.

19
Índice
Capítulo 1

direcciones privilegiadas del espacio, así que en este caso se llega a un nuevo vector
paralelo al original.
4. El estado |0) no representa ningún estado con sentido físico, aunque puede ser
objeto de una definición operativa.

1.3.2 Variables y observables: la medida en mecánica cuántica

1.3.2.1 Definiciones preliminares.

Definamos:
Sistema: Un sistema (o más generalmente hablando, el modelo que considere­
mos del sistema) vendrá definido por:
- las partículas que lo constituyan
- las interacciones que se consideren entre ellas
- los campos externos que sean importantes y que actúen sobre el mismo.
Las partículas vendrán definidas por su masa y por aquellas otras propiedades
relevantes para considerar las interacciones: la carga y, eventualmente, el espín.
Variable dinámica: Toda propiedad mecánica del sistema.
Observable: Toda variable dinámica que pueda medirse experimentalmente.12
Estado del sistema: Viene definido por los valores de los observables que pueden
medirse simultáneamente.13 Hay muchos posibles estados y tipos de estado.

1.3.2.2 Cada oveja con su pareja.

Estados: A cada estado del sistema se le hace corresponder una función (vector).
De tal forma establecemos una correspondencia entre el conjunto de estados y el de
funciones, que los términos función y estado se usan como sinónimos uno de otro.

Observables: A cada observable le hacemos corresponder un operador lineal Her-


mítico.14 Los operadores se construyen a partir de los operadores de posición, x = x,
y de cantidad de movimiento, px = j lo que se conoce como la representación
de posición. Por necesidades operativas se pueden definir operadores que no corres­
pondan con observables, por ejemplo, los operadores de creación y aniquilación de
partículas, el operador de antisimetrización, el operador de intercambio, etc.

12En este caso la afirmación es estricta, así que no valen los gendaken experiment o experimentos
mentales, aunque los proponga Einstein.
13Esta definición de estado no es válida únicamente para la Física Cuántica, ya que, por ejemplo, el
estado de n moles de un gas también viene definido por las variables que pueden medirse simultánea­
mente, que son 2 de entre (p, V, T ), pero es en la teoría de la medida en Física Cuántica cuando cobra
todo su sentido, ya que, como veremos, no todos los observables pueden medirse simultáneamente.
14De esta forma, sus valores propios serán reales.

20
Índice
Capítulo 1

Medidas de los observables: Dado un observable A , los estados posibles del sis­
tema respecto de dicho observable serán sus funciones propias: 15 A\</>i) = a¿ |
Los valores propios asociados a cada función propia son los únicos valores posibles
de cualquier medida de un observable. Si el sistema está en un estado </>¿ la medida
de A será, necesariamente, a¿.

1 3 2 .3 La medida en la Física Cuántica.

Lo que sigue es una exposición de algunos aspectos de lo que se conoce como Inter­
pretación de Copenhage de la Mecánica Cuántica.16 En el libro de Cohen-Tannoudji
se presenta una magnífica discusión de toda la teoría de la medida.
Supongamos al sistema inicialmente en un estado |ip).

1 . Se mide un observable A. Las funciones propias y los valores propios del


observable son las correspondientes a la ecuación de valores propios, A\<t>i) =
ai \<¡>i). El resultado de la medida será siempre un valor propio de A.

2. Pueden presentarse dos casos posibles:

(a) l'ip) es una función propia de A: A \i¡j) = an |^>), la medida será an y el


sistema permanecerá en ese estado.
(b) \i/j) no es una función propia de A: la medida será uno de los valores
propios de A , pero no podemos predecir cuál. Si realizamos la medida
simultánea sobre muchos sistemas idénticos,17 todos ellos “preparados”
en el mismo estado |*0), en cada uno de ellos se obtendrá una medida,
en principio diferente, aunque siempre uno de los valores propios de A.
¿Qué es lo que podemos predecir?
i. La media de las medidas obtenidas sobre muchos sistemas idénti­
cos, que vendrá dada por la expresión: (A) = ('ipl A |^) (supuesto
que \i¡)) está normalizada)
ii. La probabilidad de obtener cada uno de los valores propios. |^),
por el principio de superposición, podremos expresarlo como: |ip) =
I<!>i) ci siendo |<¡>j) las funciones propias de A . Sustituyendo en
15Obsérvese hasta qué punto son sinónimos función y estado, por un lado, y observable y operador,
por otro.
16La interpretación de Copenhage ha sido muy criticada por muchos científicos y se han elaborado
contraejemplos y explicaciones alternativas de todo tipo para refutarla, como la famosa paradoja de
Einstein-Podolosky-Rosen y la teoría de las variables ocultas. Sin embargo, a 70 años vista, sigue siendo
la única que resiste y todos los experimentos que se han llevado a cabo para verificar las interpretaciones
alternativas, no han hecho sino ratificarla.
17Este planteamiento es hijo de la hipótesis ergódica de la mecánica estadística, que establece la
imposibilidad de calcular el promedio de una medida realizada sobre un sistema a lo largo del tiempo y
su sustitución por el promedio de las medidas simultáneas realizadas sobre muchos sistemas idénticos.

21
Índice
Capítulo 1

la expresión del valor promedio: (A) = (Y1í Cí (I)í \ A J2 jcj ^ j /


\ci\2 ai- La interpretación estadística de esta última expresión es
2 2
sencilla: \c¿\ = \(cf)i \ í/j)\ es la probabilidad de que una medida dé,
precisamente, el valor a¿.
iii. El estado en el que queda el sistema. Si el resultado de la medida
en un sistema dado es, por ejemplo, a&, a partir de ese momento
la función de estado \íp) colapsa al estado |cf>k). A partir de ese
momento, el sistema permanece, hasta nueva perturbación, en ese
estado. Así, el estado en el que está el sistema sólo estará definido
después de haber realizado la medida.

3. Supongamos que el sistema ha quedado en el estado \<j>k)- Si ahora realizamos


la medida de otro observable, B ¿Qué predicciones podemos hacer sobre el
sistema?. De nuevo pueden presentarse dos casos:

(a) A y B conmutan. Si \a , £>J = 0 el sistema está en un estado que es fun­


ción propia de B, por aplicación del Teorema III del apartado 1.2.6.2, por
tanto, se puede predecir con absoluta certeza el resultado de la medida,
que será y el sistema permanecerá en ese mismo estado tras la mis­
ma, de forma que toda medida sucesiva de A o de B dará como resultado
ak y bk, respectivamente, siempre que el sistema no sea objeto de otra
perturbación externa.
(b) [ ; , b ] 7^ 0. Entonces el sistema no está en un estado propio de B y
la situación es análoga a la expuesta en el apartado 2.(b) anterior. El
resultado será uno de los valores propios de B y solo podremos predecir
el valor promedio de las medidas simultáneas realizadas sobre muchos
sistemas idénticos y la probabilidad de obtener cada uno de ellos. El
sistema colapsará al estado propio correspondiente de B.

4. Planteemos un problema interesante: Un sistema que está en un estado inicial


cualquiera, |-0 ), se mide el observable A y se obtiene como medida el valor
propio a,j, y el sistema queda en </>j, estado propio de A. A continuación se
mide B, que no conmuta con A , y se obtiene uno de sus valores propios, b^, y
el sistema queda en el estado propio correspondiente de B, c p Aquí viene la
cuestión: Si ahora se vuelve a medir A, ¿Cuál será el resultado de la medida?,
¿ají, ¿a*;?, ¿cualquier otro valor?

Solución; Uno cualquiera de los valores propios de A. Solo podremos pre­


decir el valor promedio y la probabilidad de obtener cada una de las medidas
posibles. Se da la aparente paradoja de que, conociendo inicialmente el valor

22
Índice
Capítulo 1

de la medida de Á , la medida de otra propiedad no compatible, B, perturba el


sistema, y se pierde la capacidad predictiva respecto de A.

1.3.3 Relación de indeterminación de Heisenberg

1.3.3.1 El principio de indeterminación de Heisenberg.

Un enunciado fuerte del principio de indeterminación de Heisenberg dice: No existen


leyes predictivas que contengan referencias a la posición y cantidad de movimien­
to simultáneas de una partícula. La consecuencia inmediata es que al no poderse
conocer simultáneamente posición y cantidad de movimiento de una partícula no se
pueden hacer predicciones sobre el comportamiento futuro de la partícula, por lo que
las partículas cuánticas carecen de trayectoria en el sentido de la mecánica clásica.
Al margen de las consecuencias prácticas, hay que hacer énfasis en el principio del
enunciado: NO EXISTEN LEYES PREDICTIVAS... Lo que implica que el princi­
pio de indeterminación no es el reflejo del desarrollo incompleto de las técnicas de
medida, sino una ley básica de la naturaleza que rige sobre otras leyes.18

1.3.3.2 Desviación cuadrática media.

Vamos a formalizar matemáticamente el principio de indeterminación, relacionando


la capacidad predictiva ligada a cada magnitud (posición y cantidad de movimiento,
o cualquier pareja de propiedades cuyo producto tenga dimensiones de acción) con
la desviación cuadrática media de su medida. En estadística, la desviación cuadrática
media de un conjunto de medidas se define (autodefine) como el valor promedio
del cuadrado de la diferencia entre el valor de cada medida y el promedio de todas
las medidas. Tomemos, por ejemplo, la medida de una propiedad cualquiera, a,
y apliquemos la definición a un sistema en un estado \<p), teniendo en cuenta que
A = A^A, por lo que: (Aa)2 = (<¡> ( A — (A)^ ( a — (A)^ <f>\, que desarro-
liando, lleva a: (Aa)2 = A\2^ — \(A)\2. Hay que reseñar que si \4>) es función
propia de A , {A\4>) = entonces (A) = a, así que (Aa)2 = 0, es decir,
cuando los sistemas están en un estado propio del observable, la medida se realiza
con absoluta precisión en todos los sistemas.

18Esta es la razón por la que se prefiere la denominación de principio de indeterminación en lugar de


principio de incertidumbre, que aparece en otros textos.

23
Índice
Capítulo 1

1.3.3.3 Relación de indeterminación de Heisenberg.

Supongamos un observable A = T + í ¡jlQ, que implica que A^ = donde


T y Q no son necesariamente Hermíticos y es un parámetro real. A s í:

0< A (1.29)

La expresión es positiva porque es el valor promedio de un operador al cuadrado.


Así, la expresión (1.29) es una inecuación en //, que podemos resumir como ai/x 2 +
a 2 /¿ + a 3 > 0 , donde el discriminante es: a 2 —4a ia 3 y será negativo, puesto que a 2 =
(i { [ P Ô - G * f ) }) = - ( {PQ - ) < 0 y además a 3 = >

0 y ai = / ¡G ) > 0. Entonces, a ia 3 > | a 2, es decir, T >

F = f ~ ( f )
I ( i ( j ^ G — G ^^Ÿ ) • Supongamos que siendo / y g dos opera­
Q = 9 - {9)
= (A /r
dores Hermíticos. Así, y P G — G ^T = [/>#]• Sustituyen-
= (A g f
do en la inecuación (1.29), se obtiene: (A / ) 2 (A<y) 2 > I (* [ / , ? ] ) =» A /A g >
\ ^ / >5 ) > que es la expresión del principio de indeterminación de Heisenberg.
La interpretación de esta expresión es que dos observables, / y g, pueden medirse
simultáneamente con absoluta precisión si sus operadores conmutan. 19

1.3.4 Ecuación del movimiento de Heisenberg. Constantes de movimiento.


Conjunto completo de observables compatibles (CCOC)

1.3.4.1 Ecuación del movimiento de Heisenberg.

Tomemos un elemento cualquiera de la matriz de representación del operador !F,


F 12 = T 02 'j, supuesto que las dos funciones pertenecen a un conjunto ortonor-
mal completo. La variación de F u con el tiempo vendrá dada por:

dF \2 dT d(j>2 \
>2 ) + T 4>2 ) + ( 4>\
dt = (<¿1
4
dt \ dt dt /

Aun hay otro caso en el que A fA g = 0, que es cuando, aunque f,9 no sea nulo, su valor
promedio para un estado dado sí lo es, f ,9 0, aunque esta situación puede considerarse como
anecdótica.

24
Índice
Capítulo 1

Como la ecuación de Schrödinger dependiente del tiempo establece que H \<f>) —

S£) por lo que: se sustituyen las derivadas de


las funciones y se llega a: = ^<?>i dt (f>2 ) ■En el caso de
que el operador no dependa del tiempo, ^ = i(* <p2 ), que, para toda
la matriz, se puede escribir como
dF
(1.30)
ä t = - n ^ F1
que se conoce como ecuación dei movimiento de Heisenberg y es equivalente a la
ecuación de Schrödinger en su formulación alternativa de la mecánica cuántica.

1.3.4.2 Constantes del movimiento.


En todo sistema conservativo, cuyo operador Hamiltoniano sea independiente del
tiempo, se cumple que la representación F de todo observable T , que conmute con el
operador Hamiltoniano, es independiente del tiempo, como se deduce de la ecuación
(1.30), ^ = 0. Se dice entonces que T es una constante del movimiento y lleva
asociada una ley de conservación, por ejemplo, el cuadrado del momento angular y
su componente z en el átomo de hidrógeno.

Conjunto completo de observables compatibles (CCOC): Se define así al con­


junto de todos los observables que conmutan con el operador Hamiltoniano y entre el­
los, de forma que pueden determinarse simultáneamente con absoluta precisión y sus
medidas forman un conjunto de valores que se conservan y definen el estado del sis­
tema, por ejemplo, en el átomo de hidrógeno, el orbital 2po define la energía (n = 2),
el cuadrado del momento angular (p í — 1) y su componente z (m¿ = 0). De esta
forma, los valores propios del CCOC sirven para “etiquetar” el estado.

1.3.5 Teoremas del virial y del hipervirial

1.3.5.1 Teorema del hipervirial.


Sea \%
¡j) un estado estacionario propio del operador de la energía: f í \i¡j) = E |tfj),
y T un operador Hermítico arbitrario que no depende del tiempo, entonces, el valor
promedio del conmutador con H será nulo, es decir, (/i/j H, T 0 ^ = 0 y, por tanto,

d (F ) _
= 0 (1.31)
dt
que es el teorema del hipervirial: El valor promedio de cualquier operador Hermítico
independiente del tiempo no varía con el tiempo en estado estacionario.

25
Índice
Capítulo 1

Demostración: Desarrollemos:
HT
como queríamos demostrar.

1.3.5.2 Teorema del virial.

Tomemos el operador T — J?, donde los dos vectores son: ix +


7V + ItzyJÍ = así que T = j +y-§^
?y +
' z-§^.
" dz J Si el operador
Hamiltoniano es H = T + V - |^ V 2 + V (r), el conmutador con T será
2f - ( V - W ) ] . Como, por el teorema del hipervirial, ecuación
(i.3i), ( u , t = 0, entonces:

2 (T) = ( r - W )

que se conoce como el teorema del virial en mecánica cuántica.20En el caso de que el
operador de energía potencial se pueda expresar como una potencia de r, por ejemplo,
V — krn, donde k es una constante, el teorema del virial adopta una expresión
particularmente sencilla, que es: 2 (T ) = n (V ), por ejemplo, en el caso del átomo
de hidrógeno V = £ y, por tanto, n — —1 , así que 2 (T) = — (V ), en cambio, en el
oscilador armónico V — \ k x 2 y entonces n = 2, así que (T) = (F).
Además, en estos casos, puesto que la energía se puede escribir como E — (T) +
(V), podemos resolver un sistema de dos ecuaciones con dos incógnitas, obteniendo
(T) y (V) en función de E, como (T) = ^ y (V")

1.3.6 Teoremas de Hellmann-Feynman y electrostático

1.3.6.1 Teorema de Hellmann-Feynman.

En cualquier sistema H depende de algún parámetro A, por ejemplo, las coordenadas


nucleares en el Hamiltoniano molecular, la constante de fuerza en el oscilador ar­
mónico, etc. Si Hl'i/jn) = En |í/jn), y, por tanto E n = (i¡jn H 'ipn), derivando
respecto del parámetro A, obtendremos: dx(^n H ) = ( et H V’n ) +
dn Aplicando ahora el operador Hamiltoniano sobre
a\ i ’n ) + (V’: n dX
la función a su derecha o a su izquierda, en el primer y tercer términos, respec-
— En ( l È t I | I $ r ) + (V'n ^ Tpn) y, puesto que

Existe también el teorema del virial en mecánica clásica, a partir de la cual se deduce, por ejemplo,
la ecuación del virial (como no podía ser de otro modo) de los gases reales.

26
Índice
Capítulo 1

(ipn | ipn) = 1 , resulta que ^ (ipn \ tjjn) = (jjfc \ ijjn) + (i>n | ^ f ) = 0, así que:

9En dH
— ( 071 'Ipn
dX dX
que es el teorema de Hellmann-Feynman, que nos dice que la variación de la energía
con cualquier parámetro del operador Hamiltoniano viene dada por el valor promedio
de Se utiliza, por ejemplo, para calcular los gradientes que permiten optimizar
las geometrías moleculares.

1.3.6.2 Teorema electrostático.


En el caso de una molécula diatómica, la única variable geométrica es la distancia
internuclear, R. Aplicando el teorema de Hellmann-Feynman, = ^§ 7^ . La
única parte del operador Hamiltoniano que depende de R es el operador de energía
potencial, V (R), supuesto que se ha aplicado la aproximación de Born-Oppenheimer
(véase apartado 1 .6.2), entonces ^ ||r = ( m ) es fuerza actuando sobre los
núcleos, cambiada de signo. Para una molécula diatómica (véase apartado 1.6.1) es
= -Z b + (J2i -QR- J J que nos da la componente z de la fuerza que
actúa sobre el átomo B.

1.4 M O M ENTO A N G U L A R . EL ESPÍN

1.4.1 Operadores asociados al momento angular


En mecánica clásica, el momento angular se define como: L = r x p, cuyas compo­
nentes son: Lx = ypz — zpy; L y — zpx —xpz; L z = xpy — ypx. Los operadores
asociados son, si px = f JL
d x ? o, en unidades atómicas (h = 1 ), px =
' ~
l( 8 d ~ l i d d\ ~ l i d d
A
i \ y Tz 2a i) ; c‘ = T ( % ~

CZ7 en coordenadas polares, será: Cz = i De la misma forma, a partir del módulo


del momento angular al cuadrado, L 2 = L 2+ L 2 + L 27se puede construir el operador
d2
correspondiente: C2 = C2
X +C?y + C2
Z= - + sin2 0 )
1.4.2 Relaciones de conmutación entre los operadores del momento angular

1.4.2.1 Conmutadores entre componentes del momento angular.


Las tres componentes del momento angular no conmutan entre sí, y se obtienen las
siguientes relaciones de conmutación:
= iC-z £y,CZ = iC, (1.32)

27 Índice
Capítulo 1

Estas tres expresiones constituyen la definición del momento angular en mecánica


cuántica, de forma que se puede decir que toda magnitud vectorial cuyas compo­
nentes obedezcan las relaciones de conmutación (1.32) es un momento angular.

Demostración: Calculemos el conmutador Cx ,C y : tras desarrollar los pro­


ductos CxCy y CxCy, teniendo en cuenta la igualdad de las derivadas cruzadas (las
funciones son continuas), se llega a: C X1 Cy = — (y-§¿ — z ya
que: -d2z-' zZ A.z
dzZ
_ ZJL — 1 -4- z— - z ~
Z d z ~ L ^ Z dz z dz
1. Los conmutadores entre las demás
componentes pueden deducirse en forma análoga.

1 .4.2.2 Conmutadores entre cada una de las componentes del momento angular y
a

El operador correspondiente al cuadrado del momento angular conmuta con los ope­
radores de cada una de sus tres componentes:

[cXiE¿\=Q-,\cy,E¿ = o „ ^ ] = 0 (1.33)

Demostración: Se multiplica la primera de las expresiones (1.32) por Cy por


la derecha y por la izquierda y, sumando las dos expresiones resultantes, se llega a:

Z J * - c?yc x = [£x , ¿J] = i ( c zc y + c y£ z) (1.34)

Análogamente, multiplicando la tercera expresión (1.32) por Cz por la derecha y por


la izquierda, se llega a:

£?Z255 — i (^z£"y fc'y^'z^ (1.35)

luego, restando las ecuaciones (1.34) y (1.35), se obtiene

Z £? €? £ = 0 (1.36)

desarrollando los conmutadores, como £% + £?z = C? — C?x, sustituyendo en la


ecuación (1.36) se llega a: 0 = Cx (£? — ^C 2 —C^ Cx = CX,C 2J. En
forma análoga se pueden deducir los conmutadores de C? con otras dos componentes.

1 .4.2.3 Conmutadores entre las componentes del momento angular y éste.

El operador asociado al momento angular no conmuta, sin embargo, con ninguno de


los asociados a sus componentes:

(1.37)

28
Índice
Capítulo 1

Demostración: £ *£■“'2 + *ù~"y5 ^Lx + fc'Z'i &X — i (^—Cz + Cy


*-'£3
De forma análoga se demuestra para las demás componentes. De todas las relaciones
de conmutación, ecuaciones (1.32), (1.33) y (1.37), se deduce que únicamente es
posible determinar simultáneamente el módulo del momento angular (a partir de C?)
y una de sus componentes.

1.4.3 Valores propios del momento angular

1.4.3.1 Operadores escalera.


Definamos los operadores £ + y £ _ llamados, respectivamente, operadores de as­
censo y de descenso y, genéricamente, operadores escalera:

£4. — £ x + iCy ; £ _ —£ x — ?£ y (1.38)

que son operadores adjuntos uno de otro ^ £ + = ¿ 1 )-

1.4.3.2 Algunas relaciones útiles entre los operadores escalera y de éstos con los
del momento angular.
La aplicación sucesiva de los operadores ascenso y descenso en los dos órdenes posi­
bles lleva a las siguientes expresiones:

£ + £ _ = £? - £?z + Cz ; £ _ £ + = C 2 -£ ? Z - C Z (1.39)

Demostración: £+£_ = (c x + i C y J [ c x — i ¿ y ^j = £ 2+ C y + i Cx =
C? — £?z + £ z. La segunda relación en (1.39) se deduce de forma análoga.
Otras expresiones útiles resultan de multiplicar £ + y £ _ por Cz por la izquierda.

CZC+ = £+ ( lz+ l) ;Z zZ „ = (Z z - l) (1.40)

Demostración: C ZC + = C ZC X + i C zC y = C+ + C+Cz = C+ (¿ z + lj ,
donde se ha tenido en cuenta, a partir de los conmutadores (1.32), que: CZCX =
%Zy + CXCZ y JÍzCy = - iCx.
Además, puesto que £ 2 conmuta con Cx y Cy, también lo hará con £ + y £ - .

1.4.3.3 Valores propios del momento angular.


Como el cuadrado del momento angular conmuta con sus componentes, se podrá de­
terminar simultáneamente sólo el módulo del vector y una de sus componentes. Es-
cogeremos por conveniencia la componente z. Así, c ? x , = 0 , y existirá al menos
un conjunto completo de funciones (ortonormales, puesto que ambos operadores son

29 Índice
Capítulo 1

Hermíticos) que serán funciones propias simultáneamente de ambos operadores y


que llamaremos {\Y^m)}, de tal forma que:

£? IY¿,m) = Pi\Ye,m) ; £z \Yi,m) — m |Y¿,m) (1-41)


Relación de {|Y¿iTn)} con los operadores escalera: Las funciones £+ \Y^m) y
£ _ \Y£im) son funciones propias de L z con valores propios ra + 1 y m —1 , respecti-
C z ( £ + \Y ijn )) = (m + 1) ( c + IY ^ r S
vamente: < ^ ^ ^
Cz (¿ _ |y * ,m>) = ( m - l ) ( £ _ | ^ , m)

Demostración: Haciendo uso de la expresión (1.40),


Cz (£+ |Yt,m)) = c + ( c z + l ) IYe>m) = (m + 1 ) £+ |Yt ,m)
Además, £ conmuta con los operadores escalera, porque conmuta tanto con
£ x como con £ y, entonces, £ 2£ ± \Y^m) = C ± C 2 |Y¿im) = (3¿£± En
conclusión, las funciones C± \Y^m) son funciones propias simultáneamente de £? y
Cz con valores propios f t y m i l .
Así, se demuestra que: £ + |Y¿?m) oc |l¿,m+i) y £ _ \Y^m) oc De ahí el
nombre de operadores de ascenso y descenso, puesto que transforman las funciones
(£, m ) en las (£, m i l ) .

Valores propios del momento angular: Podemos calcular el módulo de la fun­


ción £ + \Y¿tm), (Y¿,m \ £ _ £ + IYetm) > 0, teniendo en cuenta que ^£ + |Y¿,m)) =
(Y^rn \ £ - • Sustituyendo la segunda expresión en (1.39) se obtiene:

(Y¿tm\ £ _ £ + IYtim) = (Y¿tm\ C2 - £?z - Cz \Y¿ym) = - m2- m > 0

que lleva a:
¡3¿> m ( m + l) (1.42)
y, análogamente, para £ _ |Y^m) se llega a — m 2 + m > 0. Sumando ambas
expresiones se obtiene
Pe > m 2 (1.43)
así que \m\ < \[Pt, quiere decir que para un valor dado de existirán dos valores
extremos de ra, uno máximo que llamaremos fñ = y otro mínimo que será
ra = —\fP i = —ra. Para que la relación (1.43) se mantenga, se debe cumplir
que : £ + |Y¿¿ñ) = 0 y £ _ |Y¿im) = 0 , es decir que al operador ascenso no se le
permite incrementar ra más allá del valor máximo y al operador descenso no se le
permite decrementar ra más allá del valor mínimo. Así, los valores permitidos para
m serán m = ra, ra + 1, . . . , ra — 1 , ra, distribuidos simétricamente en torno a cero

30
Índice
Capítulo 1

y distanciados de unidad en unidad.21 Existirán dos tipos de soluciones, aquéllas


en las que m sea un número entero, que incluyen al 0 en la serie, y cuando rñ sea
semi entero, que no lo incluyen.22 En la ecuación (1.42) el signo = se aplica al valor
máximo de m: ¡3¿ = rñ (rñ + 1), que es el valor propio de C?. Comúnmente se llama
i a rñ, y m,£ a m , así que los valores propios del momento angular se escriben:

Pt = £(£ + 1) (1.44)
me = - i -£ + 1,£ (1.45)

De esta forma, el módulo de las funciones C± \Y¿tTn) será:

c± = [£(£ + 1) - m e (me±i)}¿

1.4.4 Funciones propias del momento angular

Tomando C+ en coordenadas polares, C+ =■ el{f> + i cot al aplicarlo a la


función Y¿¿ que corresponde al valor máximo de irif = í, el resultado ha de ser nulo:
C+Y¿¿ = 0 , entonces:

e { - m - + ' c o tS - d f ) = 0

Separando variables, => ( & ' ) - ('V í (d)

1 dQpp 1 1
___________ M = ---------- 1 rzr H (1.46)
0^ ^ cot 9 dd d<j)

ya que dos funciones distintas de variables independientes que son iguales entre sí
para todos los valores posibles de las dos variables, necesariamente han de ser iguales
a una constante, que llamamos í. La solución de la ecuación diferencial que se ob­
tiene del segundo y tercer miembro de (1.46) es: ^ en
la que, para asegurar la continuidad de la función, es necesario que í sea un número
entero. La solución de la ecuación diferencial, d (ln &£/) = id [ln (sin Q)\, que se ob­
tiene del primer y tercer miembro de (1.46) es: sin£ 9 =
L2 (2 £\) _
en la que, de nuevo, las condiciones de contorno exigen que í sea un número entero
21Este último requisito no se deriva del desarrollo que se ha expuesto, sino de las condiciones de
resolución de la ecuación diferencial.
22Se encuentra que el momento angular (análogo al momento angular clásico) corresponde siempre
a valores enteros de rñ. Como se verá en los apartados sucesivos, existen momentos angulares en Física
Cuántica que no tienen análogos clásicos y que pueden corresponder tanto a valores enteros como semi
enteros de rñ.

31
Índice
Capítulo 1

i (2 1 + 1 )! sm
y positivo. Por tanto, Y¿¿ = 2e£! Ahora, aplicando repetida­
4 tv

mente el operador descenso sobre , obtendríamos todas las demás funciones,


llamadas armónicos esféricos, Y¿m = \í m¿), cuya expresión general será:

(2 £ + ! ) ( £ — \m¿\)\
Yt,- 47r (£ + \m¿\)\
\me|
(y ) e

1^ 1
donde y = cosé?, ( 1 —y 2) 2 = sin# y (y) son los funciones asociadas de
Legendre de grado ¿ y orden ra ¿ . 23

1.4.5 El espín

El espín es una propiedad intrínseca de las partículas,24 al mismo nivel que la carga
o la masa25 que se introdujo para poder interpretar dos experimentos cruciales en la
historia de la Física Cuántica: el efecto Zeeman y el experimento de Stern y Gerlach.
Stern y Gerlach hacen pasar un haz de átomos de plata a través de un campo mag­
nético no homogéneo, encontrando que el haz se divide en dos en la dirección del
campo, poniendo de manifiesto la existencia de dos tipos de átomos que poseen mo­
mentos magnéticos de igual módulo y distinto signo. Dicho módulo vale:
que se conoce como magnetón de Bohr. En 1925, Goudsmit y Uhlenbeck26, en su in­
terpretación del experimento de Stern y Gerlach y del efecto Zeeman, proponen que
el electrón posee un momento angular implícito, que conlleva un momento mag­
nético ~ft = —# 2 m c ^ ? cuyo módulo es \!?\ = y/s (s + l)fi y —s < m s < 5 , donde
s es el número cuántico de espín. Para el electrón en el átomo de hidrógeno, s = ^
y g = 2, que se conoce como factor g de Landé. La interpretación completa se debe
a Dirac en 1928, quien establece la ecuación del átomo de hidrógeno correcta desde
el punto de vista relativista, incluyendo cuatro dimensiones y, por tanto, un cuarto
número cuántico que posee sólo dos valores posibles \ y — que corresponden a
rrts. El factor g se predice también correctamente. Sin embargo, el tratamiento del
espín en Química Cuántica es más simple, introduciéndolo en forma de postulados
23 Las expresiones concretas de los armónicos esféricos pueden encontrarse en muchos textos de
Química y Física Cuántica, incluso de Química Física, además de Ecuaciones Diferenciales o Matemáti­
cas para la Física.
24El autor quiere estimular a los lectores, si se dedican a la enseñanza de la Química, a refutar la
interpretación simplista del espín que aparece en muchos libros de texto de Química, en el sentido de
que el electrón “gira” sobre sí mismo. La relación entre el límite superior del radio del electrón y la
magnitud del momento magnético experimental hace imposible tal relación siendo la velocidad de la
luz constante y con el valor conocido.
25Para caracterizar las partículas, los físicos utilizan un conjunto de propiedades con valores
definidos, como las mencionadas, además de otras como el encanto, la extrañeza, el sabor o el color.
26S. Goudsmit y G.E. Uhlenbeck, Naturwiss., 13, 953 (1925); Nature, 117, 264 (1962)

32
Índice
Capítulo 1

adicionales que afectan a la forma de la función de estado y a su comportamiento


respecto del intercambio de partículas, como se verá en el apartado 1.6.5.
Dado que el espín es un momento angular, se pueden definir los operadores aso­
ciados, a partir de las relaciones generales de conmutación de un momento angular:

tSz 5 [^2/5 Sz¡ — [3.Z) — ISy


= 0 [S2,Sy] = 0 s¿, s z = 0

Para el electrón, sólo hay 2 componentes de espín, luego s = \ y m s = ± ¿ . Habrá


1 0
dos funciones propias, por tanto, que serán |a) =
0
\P) = 1 . Sabiendo el
y
resultado de aplicar los operadores sz, s+ y s_ sobre |a) y \fi) que es:

Sz 1«) = 2 Ia ) ; «+ Ia ) = 0 ; |a) = 1/3)

Sz\P) = ~ \(3) ; s + \0 ) = \a ) ; 51 \(3) = 0

podemos encontrar sus representaciones matriciales en esta base. De esta forma,

sz — \ * ^ , s+ = ys_= ! n ‘ A partir de estos operadores

i
1

*O
O

’ 1 ^ _ 1 1 ’
se deducen los demás: s 2 = + sz (sz + 1 ) = § &x — 2

1—
5

O
O

1
r

1
-i
0
y sy . De esta forma se puede verificar el resultado de aplicar estos
i 0
operadores sobre |a) y \(3):

s 2 |or) = | |a> ; Sx |a) = 5 |/J> ; íy |a) = ^ \P)

s2l« =jW; = s»l« =-J|a>


1.4.6 Acoplamiento de momentos angulares
La suma de dos vectores es otro vector, cuyas componentes son la suma de las com­
ponentes de los dos sumandos. Si los dos vectores son cuánticos, la suma también lo
será. Solo hay un pequeño problema, solo conocemos el módulo y una componente
de cada uno de los vectores sumando y solo podremos conocer el módulo y una com­
ponente del vector suma. Sean los momentos angulares L i y L 2 , para los cuales
están definidos, para el primero, su cuadrado, C \, por el número cuántico Z\, su com­
ponente z, CZl, por mg1, y para el segundo vector, C\ y Z%, y rní2- Para el vector
suma, L , están definidos C?y Z, Cz y m¿. Podemos imaginar que L \ y L 2 son
dos vectores que precesan en torno al eje Z , de forma que únicamente cuando la fase

33 Índice
Capítulo 1

relativa de giro sea adecuada, el vector suma será compatible con las condiciones que
impone la Mecánica Cuántica. En todo caso, la componente z del vector suma será
la suma de las componentes z de los vectores sumandos, así que: L z — L Zl + L Z2
y, por tanto, m¿ — m + m¿2. Los valores posibles de í se calculan haciendo uso de
las reglas de Clebsch-Gordan27 según las cuales í puede tomar cualquier valor de la
serie: t — í \ + + h ~ 1 , • • •, \h ~ h \*

1.4.7 Conservación del momento angular

Si el modelo que consideremos de un sistema cualquiera, definido por su operador


Hamiltoniano, 7í, cumple H ,Cr 2 = o y |7i , Cz = 0 , de acuerdo con lo estable-
cido en el apartado 1.3.4, diremos que existe una ey de conservación del momento
angular. Las condiciones precisas para que sea así dependen de la simetría del sis­
tema, que deberá ser esférica, como en los sistemas de campo central: el átomo de
hidrógeno y los átomos en la aproximación monoelectrónica, por ejemplo.28

1.5 M ETO DO DE VARIACIONES Y PERTURBACIONES

1.5.1 Definiendo el contexto

El objetivo es encontrar soluciones aproximadas a O \4>a) = uüa \<¡>a) cuando la


ecuación de valores propios no se puede resolver exactamente. Aunque el tratamiento
que se va a hacer es general, el desarrollo se hará sobre las soluciones de la ecuación
de Schródinger H |$ a ) = £a |$ a ), donde (|$ a )} son las funciones propias exactas
de 7i, que forman un conjunto completo ortonormal, ($ a | $¡3) = Sap. Los valo­
res propios, ordenados de menor a mayor, serán: £q < £ \ .. . £a < ..., de forma
que £a = (<&a \H\ # a ). Cualquier función ^ (l^ a)} que satisfaga las mismas
condiciones de contorno que ellas, por el principio de superposición, puede escribirse
como: * = £ a l * c

1.5.2 Principio variacional

Dada una función normalizada que satisfaga las condiciones de contorno apro­
piadas, típicamente que se anule en los límites del sistema, el valor promedio de H
calculado con es un límite superior a la energía exacta del estado fundamental.
Es decir, si ( $ | <3>) = 1, se cumple que ( $ H $ ) > £ q.
27Cuya deducción es tan complicada que remitimos al lector a textos especializados, como el libro
de Condon y Shortley, por ejemplo.
28 r
En otros casos, como en las moléculas lineales, que poseen simetría cilindrica, H,Cz 0y
sólo se conserva L z .

34
Índice
Capítulo 1

Demostración:

1 = ( $ | $ ) = £ Q( $ | 0 ($Q|$ ) = £ I$

¿•o = £ Q¿’o ( ^ a | $ ) , multiplicando por £ q.

$ $ ) = £ Q/3 (<&|$a)(<Í> n $ ^ p \ V = E a So I$
Restando las dos expresiones anteriores:

ñ $ ) - ¿O = £ Q (£* - ¿O) ( $ a | > 0 porque, por definición,


2
4 > y > 0, así que (H) = H $ ) > £ q, como se quería
demostrar.

1.5.3 El método variacional

La energía mide la calidad de la función de ondas aproximada cuanto menor


sea (Tí), mejor será aquélla, así que, si se hace depender de algún parámetro
o parámetros A, ¡i, . . . el valor de (Tí) dependerá de dichos parámetros. Así, si
<3>i) corresponde a un conjunto de valores de los parámetros Ai, /¿i, Í >2
a otro A2, fi 2 , - • • y ( $ i H < (# 2 Tí $ 2 /? entonces podemos afirmar que
el resultado obtenido con $ iy es más próximo a £o y? por lo tanto # i y es mejor
que $ 2 ^- Entonces, el mejor conjunto de valores para los parámetros, supuestos
independientes entre sí, será aquél que dé el mínimo valor de la energía, afirmación
que constituye el fundamento del método variacional, según el cual el mejor conjunto
de valores será el que se obtenga de resolver el sistema de ecuaciones:

d (H ) 9 (H )
= 0 = 0 (1.47)
dX dfi

para la forma funcional específica de $

1.5.4 El método de las variaciones lineales

Una forma de escoger la parametrización de la función de prueba <I>) consiste en


tomar un conjunto de funciones reales fijas Y establecer una combinación
lineal entre ellas, = £ fc |ipk) ck, de forma que los coeficientes { c /J ^ son los
parámetros variacionales.
La representación de H en la base }^v ser^ Ia matriz H , cuyos elementos
serán (H)-- = Hij = (4>i H ip. y, puesto que las funciones son reales y Tí es

35 Índice
Capítulo 1

Hermítico, Hij = Hji. Si la función de prueba está normalizada, 1 $ I$) =


E¿ E i cici (i’i I V’j) = E i ci = L Además, ( $ H $ ) = E* E ¿ CiCjHij.

Problema: Buscar los valores de los {cí}n que hacen que (Ti) sea mínima, sujeta
a la restricción de que | = 1. La última frase indica que los coeficientes en
(Ti) no son independientes entre sí, por lo que la mera aplicación de las expresiones
(1.47) no resuelve el problema.

Solución: La utilización de la técnica de los multiplicadores indeterminados de


Lagrange resuelve el problema. Para ello se construye un funcional con la fun­
ción a minimizar, ( $ 7 i # y , a la que se adiciona una función de valor nulo que
contenga la dependencia adicional entre las variables, | — 1 ^, multiplica­
da por un parámetro, E , a determinar a posteriori con alguna condición adicional:
£ [ c u . . . , c N lE] = ( I H <£>)_£ | $ ) _ l ) = E .. C iC jH ij - E (E i C? - 1).
Como la función adicional tiene valor nulo, el máximo de £ y de (Tí) coinciden. Aho­
ra que los parámetros pueden considerarse independientes, podemos buscar el míni-
mo de C, haciendo: ^ = 0 = E j CjHkj + E¿ CiHik - 2E ck , k = 1 , 2 , . . . , N .
De esta forma, puesto que cj ^ k j = ciH ik> entonces, ]T) • H ijcj — lo
que implica, en notación matricial, que H e = E c , que es la ecuación de valores pro­
pios de H. Así, el problema se resuelve diagonalizando H. El resultado entonces
consiste en N valores de E , valores propios de H , Eq < E \ < • • • < E ^ - i y sus
correspondientes vectores propios c°, c 1, ..., c N~l , de forma que H c a = E aca,
para a = 0 , 1 , . . . TV — 1 . Si formamos una matriz diagonal con los valores pro­
pios, E y otra, no diagonal, con los vectores propios, C = c° c 1 • • • c ^ - 1 J,
podemos escribir en forma compacta todas las ecuaciones de valores propios como
H C = C E.
Volviendo al principio, hemos encontrado N soluciones,
rfi -= 5aß, con N valores asociados de la energía,
ortonormales, (® a * p ) = '&<?<$
de forma que ( $ 0 H *ß) = = E¿cf (hC0). = EiCf^cf
Eßöaßy por lo que E a = H $ a ) que, para a = 0, E q > £ q, es la mejor
aproximación, con esa base, a £q .

1.5.5 Extensión del método variacional a estados excitados

Consideremos una función de prueba normalizada, ortogonal al estado fun­


damental exacto, ( $ f | = 0. Entonces Ti > £\. Es decir, el valor
promedio de la energía de toda función aproximada ortogonal al estado fundamental
exacto es un límite superior a la energía exacta del primer estado excitado.

36 Índice
Capítulo 1

Demostración:

1 = £ a |( $ « I $ / } | 2 = £ a ^0 => £l — Ect^O
donde se ha excluido el sumando para el que a = 0 , puesto que es nulo.

Tomando el valor promedio de H con la función de prueba: ( $ ' n & ) =

Za/3 ( * ' I * « ) ( * a \n \ $ f,) (*/J | $ ') = E a ^ o I


restando las dos expresiones anteriores:

n > 0, porque £\ < £a y


2
> 0. Entonces <$' Tí $ / > £i> como se quería demostrar.
La demostración se puede extender a funciones que sean sucesivamente or­
togonales a |$ a ) para a = 0 , 1 , 2 ..., cuyos valores propios serán un límite
superior al £a+i correspondiente.

1.5.5.1 Aplicación a variaciones lineales.


Demostración de que E \ > £\, siendo E \ la segunda energía obtenida de la diago-
nalización de H . Tomemos los dos vectores propios normalizados de H de energía
más baja <5o) = Yli |^¿) ci y $ i ) = Yli I& ) cl y formemos una nueva función
como combinación lineal de las dos: = X $o) +
y # i ) . Si está nor-
i2 , ! i2
malizada |x |z + |y |z = 1. Si imponemos que $ ') sea ortogonal al estado funda-
mental exacto, | = 0, entonces, £i < n \x\ E 0 + \y\ E i =
\x\2 E q + ^1 — \ x \ E i = Ei — x \2 (E i — E q) < E i puesto que M 2 > 0 y
(E i — E q) > 0 . Así, tomando el primer y último miembro, E \ > £\. La de­
mostración se puede generalizar para E a > £OÍ para cualquier valor de a.
Así, el método de variaciones lineales demuestra que la única diferencia entre la
solución exacta y la aproximada consiste en que la base sea completa o no. En la
práctica, para representar una función de ondas se requiere una base infinita, por lo
que el mero hecho de tomar una base finita, por grande que sea, implica la obtención
de una solución aproximada. Además, la calidad de la aproximación mejora con el
tamaño de la base, porque cuanto mayor es la base, mayor es el número de parámetros
variacionales a ajustar.

1.5.6 Teoría Rayleigh-Schrodinger de perturbaciones independientes del tiem­


po
Sea un sistema para el cual el operador Hamiltoniano es H, cuya ecuación de va­
lores propios no tiene solución exacta y otro sistema cuyo operador Hamiltoniano
es %o, suficientemente próximo a H cuya ecuación de valores propios sí se puede

37
Índice
Capítulo 1

resolver. Podemos considerar pues, que nuestro sistema de interés es éste último
perturbado: Tí = H q+H ' y, por tanto, H f — H+Í-Lq será el operador de perturbación.
Por ejemplo, para el oscilador anarmónico, V = \ k x 2 + a x 3 + 6 x 3 + • • •. Para
el oscilador armónico, que podemos resolver exactamente, Vq = \ k x 2. Podremos
entonces considerar que un oscilador anarmónico es V = Vo + a x 3 + bx 3 + • • •, o
sea, un oscilador armónico perturbado. Con esta formulación se describe el sistema
perturbado a partir de las soluciones del sistema sin perturbar. Es decir, el sistema
sin perturbar permite elaborar un lenguaje más simple con el que describir el sistema
perturbado, más complejo.

Desarrollo: Sea li. |$¿) = |$¿) la ecuación de valores propios del sistema per-
turbado, cuyas soluciones no se conocen, y Tío (0 )^ (0) la del sis-
tema sin perturbar, cuyas soluciones son conocidas, y que llamaremos de orden cero
Tomaremos 7i — Tío + ATí7 en la que A es un parámetro arbitrario, cuyo valor fijare­
mos a posteriori, a nuestra conveniencia. Desarrollemos en serie de Taylor sobre A
la función y la energía del sisteipa perturbado: = E¡°^ + AE ¡XJ + A2 E¡Az?(2)) +

y l*i> = ^ í 0)) + A + A2 + ■• • Llamaremos energía y función de


(n) (n)
orden n a E, respectivamente. Las funciones de orden cero están nor-
malizadas, ( >(0) = 1 - Para la función perturbada escogeremos la norma­
lización intermedia, | = 1 , que, sustituyendo la función perturbada, 1 =
*S0) I * W ) + X (*?> I í'J 1)) + A2 ( í ' f ) I + entonces, ( ^ 0) | ^ n)) =
0 para n / 0, ya que los términos correspondientes al mismo grado de A han de ser
iguales en ambos miembros. Así, cualquier función de orden n ^ 0 es ortogonal a
la de orden cero. Sustituyendo los desarrollos del operador, la función y la energía,
como polinomios de A en la ecuación de valores propios e igualando los términos de
ambos miembros correspondientes al mismo grado de A, se obtiene:
(0)
Para A°: Ho (0) E n>(°)
i
(0 )^
E)(0 ) (i)
Para A1: Ho *S0))
(2) (i) >(!) (2) (0)\
Para A2 : Ho * Í X)) = E¡0) + E, etc.
/’
Multiplicando la ecuación correspondiente al primer grado por ( , llegamos
a: ( V,(0) Uo $ (i) + <* (0) H! = E^0) (0)
* í ‘»>
(0)

(0 )
o sea, E)(i) Ho H!
Utilizando el principio de superposición para la función de orden n con las fun­
ciones de orden cero:
^ n)) =(0) E¿ n)
4 donde hay que señalar que: =
(i)
\Err
(°) i
% x ] = 0. Así,
-
Ho C^ E ¡ 0) 0 y, por tanto, E¡(i)
(0)
H! *f>).
38
Índice
Capítulo 1

De igual forma, para la ecuación correspondiente al segundo grado, se llega


(0)
a: E l(2) V!
(i) Operando de igual forma se obtiene que E \n^ =
(0)
H' ^ ), es decir, que la energía correspondiente al orden n requiere
conocer la función de un orden inferior.
Los coeficientes de la expansión de la función de primer orden se pueden obtener
a partir de la ecuación correspondiente al primer grado de A, reorganizándola co-
mo: \&¿°^. Multiplicando por 3 +
teniendo en cuenta que é p = ( \ 1/,(°) i *(i) y que se a:

. Volviendo a la expresión de la energía de orden 2, llegamos


E m - E (0)
* ( 0) ^(°)|
a: E¡2) = 2^(0) _ De forma
E,( 0) ■E{0)
análoga se obtienen las energías de órdenes superiores.
Hay que hacer atención al hecho de que en el denominador aparecen diferencias
de energía, por lo que la existencia de degeneraciones o cw¿zs/-degeneraciones en el
sistema no perturbado inducirá la aparición de inestabilidades numéricas que llevan
a dificultades en la convergencia de la serie de perturbación. En este caso hay que
considerar la teoría de perturbaciones para estados degenerados.

1.5.7 Teoría de perturbaciones para estados degenerados

Sea un sistema sin perturbar en el que existen n estados degenerados, Tío


(0)
E í0) $ J(0)\/, para 3 1 , 2 , . . . n, con e [°^ = E ^ = = e : e ,(0)
Entonces la teoría de perturbaciones independientes del tiempo no es aplicable. En
el sistema perturbado T í\$ j) = £j donde Tí = Tío + ATí1. Como lirn^_>0 £j =
E n \ la perturbación, en general, rompe la degeneración. En cambio, lim>_,o $ ;) =
E n (0)
i= 1 d ij ~ ,(°)' y, con 1 < j < n, ya que toda combinación lineal de esta­
cp'j
dos degenerados es también una función propia de Tío* Por tanto, habría que buscar
cuál es la mejor combinación lineal de las funciones no perturbadas para describir el
sistema perturbado. Tomaremos pues, | <&j) — + A + A2 + •• •
y £j = En ^ + X2 E f ) + • • •. Sustituyendo como antes el operador, la
función y la energía como polinomios de A en la ecuación de valores propios e
igualando los términos de los dos miembros correspondientes al mismo valor de A,
obtenemos para A1: fio ^ ^ + Tíf = En ^ + E^p que> tras
reorganizarla y sustituir — Ya =i Y ~ E fe 4 ^
va a: (e£ 0) - H q) |^ i 0)) = £ ? = i dió ( h ' - E ^ ) | ^ 0)). Multiplicando

39
Índice
Capítulo 1

por *(°) , con 1 < m < n, perteneciente, por tanto, al conjunto degenerado, des­
componiendo el sumatorio en dos, = YX=\ + EfcLn+i lleva, para el primer
miembro a:
n oo

¿ 41}(40)- 4 0)) ( * $ i*í0)}+k =En - \- l 41}(40)- 40))


k=l
i*í0)) =0
porque En'' = E ^ en el primer sumando y Al' m(0) „<»>> 0 en el segundo. El
(0) (i) *
segundo miembro lleva a: Y a =i ¿kj w E. ^í°)
m * í 0)) ) = 0 ,
que podemos escribir como X)¿t=i {^'mi ~ Sm íE j1^ d{j = 0, que, en forma ma-
tricial, es ^H' —E ^ s ' j d J = 0 , lo que equivale a la ecuación de valores propios
de la matriz H ' construida con la base de las funciones de orden cero degeneradas
no ortogonales. Si ortogonalizamos el conjunto degenerado, ^H7 —E f h ) = 0.
Así E^1) = D ^H 'D proporciona n soluciones de la energía, E [l \ E^¿\ . .. ErP y
los coeficientes de las n mejores combinaciones lineales como funciones de orden
cero en D. Los coeficientes de la función de orden 1 , las energías de orden 2, etc.,
se calculan como en la teoría de perturbaciones no degeneradas, pero utilizando las
funciones ■ p f) = n 01K , que hacen H 7 diagonal, en vez de ( 0)

1.5.8 Sistemas de dos niveles. Acoplamientos


Sea un sistema en el que existen dos niveles próximos en energía y los demás esta­
dos están lo suficientemente lejanos como para ignorarlos en primera aproximación.
Lo describiremos mediante el Hamiltoniano Hq y sus funciones propias |cpi) tal
que éH o\ipi) = Ei\cpi} para i = 1 ,2 y {tpi | ^ 2 ) = ¿ 1 2 - Si introducimos una
perturbación,29 entonces, H = Hq + W, donde W recibe el nombre genérico de
acoplamiento, tal que H |<£>±) = £ ± \ < p ± ) . Si utilizamos las funciones \ t p i ) , i = 1 , 2
E \ + W \\ W 12
como funciones de base tendremos H = = H0 + W,
W 21 E 2 + W 22
donde, si W es Hermítico, Wu serán reales y W 12 - W 21 . Si diagonalizamos H
llegamos a

s± = \ {E x + wu + E2 + W 22) ± ¿ [(£1 + W u E 2 - W 22)2 + 4 \W 12 f

1<p+)
= cos f \(pi) + sin § 1^ 2 ) 2 |Wial
de forma que donde tan 9 = E1 +WH— E2—W22
\<P-) = Sin ; \ifii) + eos I \<p2)
con 0 < 6 < 7r. Podemos considerar varios casos posibles:
29Que puede ser una perturbación externa o bien un término adicional del Hamiltoniano que repre­
sente un refinamiento del modelo y puede además depender del tiempo, induciendo transiciones entre
b i ) y | ^ 2 ).

40
Índice
Capítulo 1

£+ = E i <-►|<¿>+ ) =
1 . Sin acoplamiento: W = 0 . Solución trivial.
£_ = E 2 <->• |</>_) = 1^ 2 )

2. W 12 = W 21 = 0 => ¡ £¿ = f 2 + % £ ” j £ > = ¡£> . Supone única-

mente una perturbación diagonal W


wn o
. La consecuencia es
W 22
0
un desplazamiento de la energía de los estados sin mezc a de las funciones.

3. Caso general. Podemos decir que W 12 es la responsable del acoplamiento.


Por simplificar, de ahora en adelante utilizaremos Ei = Ei + W u ,i = 1,2.

Así, £± — ^ (^Ei + E 2/j i \ ~~ ■^2) ^ l^ 1 2 l2 Y = 2 1^ 12 1


E l-E 2
E m = \ (jEi + E ^ E i —E m + A
Si ahora definimos => £± =
A = 5 (É i - É 2) E 2 = Em — A

E m ± [ a 2 + ^ 1 2 12 1 y ta n # = que no depende de E m, sólo


de A y | W 1 2 i- Representemos £± frente a A, tomando el origen de energías en
E m y haciendo arbitrariamente |W"i2 1= 1.

La curva en línea fina representa y la línea gruesa Estudiemos los


comportamientos asintóticos:

(a) |A| \W i 2 ¡. Podemos desarrollar en serie £± en términos de Wi


12
A
2
como £± = Em ± A ^1 + \ Wi12. H----- tiende a £± = E m ± A =
E i, 2 , que corresponde a las dos rectas representadas

41
Índice
Capítulo 1

(b) Si |A| <C IW1 2 I entonces £± tiende a £± = E m ± |W 1 2 I- Así que en


A = 0 la diferencia entre las dos soluciones será £+ — £ - = 2 |W i 2 |.

Efecto del acoplamiento sobre la energía de los niveles: Si el acoplamiento


es nulo, W \2 — 0, E \ y E 2 se cruzan en A = 0 . Si no es nulo, E \ y E 2 se “repelen”
y aparece un cruzamiento evitado, de tal forma que \£+ — £_| > |jE7i —£ 2 1,VA.
El efecto de W 12 es tanto más importante cuanto menor es A. Así, para el caso
de dos niveles sin perturbar degenerados, A = 0 , £± — E m =t |"W/i 2 U efe c t0 de
W 12es más importante (de primer orden) que cuando |A| >> IW1 2 I, cuando £± =
2
E m =t A ± y W12 =b • • • en el que W 12 aparece en el segundo orden.
A

Efecto del acoplamiento sobre los estados: Aparecerán dos comportamientos


extremos, según 0 = arctan :
- Acoplamiento fuerte: | W 1 2 1 A que lleva a |(p±) —>■ (l^i) ± 1^ 2 ))
- Acoplamiento débil: \W i 2 ¡ <C A que lleva a |ip±) —> ^ 1 ,2 )

1.6 SISTEM AS PO LIELECTR Ó N ICO S

1.6.1 Forma general del Hamiltoniano no relativista


Definamos en primer lugar el modelo escogido para representar a un sistema mole­
cular:
- N electrones con carga -1 y masa 1
- M núcleos con carga Z¡ cada uno y con masa M /
- Sólo interacciones de tipo electrostático
_ 1 sr^N y 2
2 2^ i = 1
M Yl
1 M/

_ ÍW = E ÍÍJ l é 1
'i; sr^N J

donde, de ahora en adelante, se utilizarán letras minúsculas para los electrones y


mayúsculas para los núcleos. El Hamiltoniano está escrito en unidades atómicas, en
las que ti = 1 u.a., e = 1 u.a., m e = 1 u.a., Atteq = 1 u.a., etc.

1.6.2 Aproximación de Born-Oppenheimer

Los núcleos son pesados con relación a los electrones30 por lo que podemos suponer
que si repartimos equitativamente la energía entre núcleos y electrones, éstos últi-
30Como mínimo 1840 veces en el caso del átomo de hidrógeno.

42
Índice
Capítulo 1

mos se moverán mucho más rápidamente que aquéllos, en promedio. De esta for­
ma, podemos suponer que un electrón realizará todo su ciclo de movimiento antes
de que los núcleos hayan variado apreciablemente su posición, lo que permite de­
sacoplar los movimientos de los núcleos y electrones, permitiendo separar la ecuación
de Schrödinger. El movimiento de los electrones, más ligeros, estará condicionado
por la posición en cada instante de los núcleos. Tomemos Ti = Te + Tn + Vee +
V n n + Vejv, cuya función propia, desconocida, escribiremos como: $ (r, R) =
F (r, R) G (i?), donde representamos simbólicamente por r las coordenadas de to­
dos los electrones y por R las de todos los núcleos. Esta forma de la ecuación de
estado no representa ninguna aproximación y por tanto no supone ninguna pérdida
de generalidad. Sustituyendo el operador y la función en la ecuación de valores pro­
pios de Tí y teniendo en cuenta cuáles de sus términos operan sobre G (R) o sobre
F (r, R), se obtiene: G JR ) f eF (r, R) + TN F (r, R) G (R) + VNeF (r, R) G (R) +
G (R) VeeF (r, R) + V n n F (r, R) G (R) = £ F (r, R) G (R). Teniendo en cuenta
que Tn F (r , R ) G (R) = GTNF + F T N G - ^ iGa^ iF , sustituyendo y divi-
diendo por el producto FG: j?TeF + ^ TjsfG + ^ T ^ F — ^ iF +
jjVN eF + -pVeeF + Vn n = Estrictamente hablando, la aproximación de Born-
Oppenheimer supone hacer que ^ j F = 0. Es decir, que la variación de la función
de onda electrónica con la posición de los núcleos es nula. Dos son las principales
consecuencias. Con la introducción de la aproximación, en la función F (r, R) las
coordenadas nucleares R dejan de ser variables para convertirse en parámetros, por
lo que la escribiremos F (r; R). Además, los términos ^ Y li -^/F y
pT/v-F serán nulos. Queda pues, j?TeF + -gTpjG + -pVpjeF + ^ V eeF + V n n = £•
Separando variables, teniendo en cuenta que en F (r; R), R ya no es una variable,
p (Te + VjVe + Vee^) F + V n n = £ — ¿ T nG = £ '. Igualando el primer y ter­
cer miembro podremos pues escribir una ecuación de valores propios electrónica:
(fe + VjVe + V e e ) F = ( s 1 - V n n ) F = S eF, donde £' = £ e + VNN. Con
el segundo y tercer miembros escribiremos la ecuación de valores propios nuclear,
(T¡s¡ + £'^j G — £G. Entonces, definiremos £' como la energía potencial a la que
están sometidos los núcleos. Como depende de las coordenadas de los núcleos, que
son en total 3M , se le llama Hipersuperficie de energía potencial (HSEP).
Definimos también el operador Hamiltoniano electrónico Tíe = Te + VNe + Vee,
de forma que Tíe [R] F% (r ; R ) = [R] F% (r ; R ), donde se ha puesto explícita­
mente el supraíndice e para indicar que se trata de magnitudes electrónicas, n es el
índice que numera las soluciones de la ecuación de valores propios del Hamiltoniano
electrónico. Puesto que £ fn [i?] = [R] + V n n , podremos resolver la ecuación para
los núcleos: (T n + £'n [-R]) Gv,n (R) = £v,nGv,n (R).
- F% (r; R): representa el estado n de los electrones. Hay una solución para cada
valor de R.

Índice
Capítulo 1

- GUìn (R ): representa el estado v de los núcleos para el estado n-ésimo de los


electrones.
- £% [R]: energía electrónica del estado n para la conformación R.
- £'n [R]: energía potencial de los núcleos en el estado n de los electrones.
- £Uin: es un límite inferior a la energía exacta del sistema (se puede demostrar).

1.6.3 Superficies adiabáticas y diabéticas


La hipersuperficie de energía potencial que aparece como solución de la ecuación de
valores propios electrónica, dentro de la aproximación Born-Oppenheimer, se define
como una superficie adiabática, puesto que cada punto de la misma se calcula con los
núcleos fijos en una posición. De esta forma, la descripción de los distintos estados
electrónicos Born-Oppenheimer se conoce también como aproximación adiabática.
El análisis topologico de las HSEP lleva a la identificación de mínimos y puntos de
silla que permite la realización de estudios teóricos sobre mecanismos de reacción
y cinética química. Sin embargo, tomando las soluciones (r; R) G UìTI (R) como
un conjunto completo, se puede aplicar el principio de superposición, por lo que
el estado del sistema será una mezcla de todas ellas. Estos estados superpuestos
son conocidos como superficies diabáticas puesto que mezclan sin cruzamientos las
diferentes superficies Born-Oppenheimer.

1.6.4 Funciones de onda para sistemas polielectrónicos


Como consecuencia del principio de indeterminación de Heisenberg queda aban­
donado el concepto de trayectoria en Mecánica Cuántica, por lo que en el caso de
sistemas conteniendo partículas idénticas, éstas, además, se deben tratar como indis­
tinguibles, así que la densidad de probabilidad debe ser invariante al intercambio de
dos partículas.
Sea un sistema con dos electrones, cada uno de los cuales tendrá 4 grados de
libertad (incluido el espín), (x^y^z^a) o ( r , 0 , 0 , a), que resumiremos como a? =
("r\ a), en la que T* es el vector de posición del electrón y a la coordenada de spin,
que sólo puede tomar dos valores, \ y — La probabilidad de encontrar al electrón 1
en Iz?i y al electrón 2 en o? 2 será |\& [ o?i ( 1 ), 2 ? 2 (2 ) ] | 2 dlÈ \dlÈ 2 ->entendiendo que
1È i (j) indica que el electrón j está en el punto y que ^ es la función de estado
del sistema de dos partículas. Como las dos partículas son indistinguibles, también
sería válido [ a?i (2), 2 ? 2 (1) ] | 2 dlèidlè'i* El dilema se resuelve al establecer una
ley de simetría básica de la Física Cuántica:
Si una propiedad físicamente medible depende de las coordenadas (incluido el
espín) de partículas idénticas, el resultado de la medida de dicha propiedad debe ser
independiente de cualquier intento de etiquetar las partículas, lo que implica que la
propiedad ha de ser simétrica al intercambio de partículas31 La consecuencia de lo
31Lo dicho afecta también al operador.

44
Índice
Capítulo 1

anteriormente dicho es que ( 1 ) , o? 2 (2 ) ] |2 = |\I> [a? 1 (2 ), a? 2 ( 1 )]|2-

1.6.5 Principio de antisimetría

La ecuación anterior puede satisfacerse de dos formas:


1. [ a?i ( 1 ) , "a? 2 (2 )] = ® [ a?i (2 ), ~a? 2 ( 1 )], es decir, es simétrica respecto al
intercambio de partículas.
2 . ^ [ a?i ( 1 ) , a? 2 (2 )] = —Vf [ (2 ) , a? 2 ( 1 )], es decir, es antisimétrica respec­
to al intercambio de partículas.
El comportamiento de las partículas respecto al intercambio se establece medi­
ante la introducción de postulados adicionales:
1. Todas las partículas fundamentales se describen por funciones que pertenecen
a una u otra clase.
2. Las partículas elementales no pueden cambiar de una clase a otra.
A partir de los dos postulados anteriores se establece el principio de antisimetría:
Todas las partículas con números cuánticos de espín semientero se describen por
funciones antisimétricas. Las que tienen espín entero por funciones simétricas. Las
primeras obedecen a la estadística de Fermi-Dirac y se llaman fermiones y las segun­
das a la de Bose-Einstein y se llaman bosones.
Los fermiones se repelen más que las partículas clásicas. Un gas de fermiones a
una temperatura dada tiene mayor energía interna y ejerce una presión mayor que un
gas clásico. Son ejemplos el electrón, el protón y el neutrón y todos los núcleos con
número másico impar.
Los bosones se repelen menos que las partículas clásicas. Un gas de bosones a
una temperatura dada tiene menor energía interna y ejerce menor presión que un gas
clásico. Son ejemplos el fotón, los núcleos de Deuterio, Helio y todos los que tienen
número másico par. Si además el número atómico es par, el número cuántico de espín
nuclear es cero.

1.6.6 Aproximación orbital

Debido a la existencia del operador Vee = Y^icj r73l i *a ecuación de valores pro­
pios H e [i?] F* (r; R ) = [R] F% (r ; R) no es separable y, por tanto, no se puede
resolver. Buscaremos una aproximación que sustituye Vee por una suma de opera­
dores efectivos monoelectrónicos. Así, probaremos a separar variables definiendo
para dos electrones, por ejemplo, una función de estado que sea producto, debida­
mente antisimetrizado, de dos funciones monoelectrónicas (función de a?): |^ ) =
*Axi (%í) X2 (^2)- Las funciones x (~^) se denominan espinorbitales, cuya defini­
ción, por tanto, es: Un espinorbital es la función de estado de un electrón sometido a
un potencial monoelectrónico, real o efectivo. A es un operador antisimetrizador, que
proyecta la función x i (^ í) X 2 (#2), que no tiene comportamiento simétrico definido,

45
Índice
Capítulo 1

extrayendo la componente antisimétrica. La función polielectrónica |^ ) es una fun­


ción de orden 0 en la que los electrones no interactúan.

Espinorbitales: x (~^)? en su forma más general, no decide cuál es el valor de


a, así que podremos considerarlo como una superposición de los dos posibles estados
de espín \a) y |/3): x i~^) — ^ 1 ( ^ ) \a ) + ^ 2 ( ^ ) \P), las funciones ^ (~r*) son las
componentes espaciales del espinorbital.
Si en Tí no hay acoplamientos espín-órbita se puede simplificar la descripción
del electrón, porque no hay posibilidad de mezcla de los dos estados de espín, así que
X ( 2 ?) = (a )’ donde u (a) es \a) o |/3) y xjj (T*) es el orbital espacial.
Como simplificación podemos suponer que cada par de electrones comparten
el mismo orbital espacial, de forma que X 2i - i i~^) — & (~^) \a ) y X 2i {~^) =
y.%("r*) |/5). Esta definición se conoce como definición restringida y espinorbital res­
tringido, válido para sistemas en capa cerrada, en los que todos los electrones se
presentan apareados.
En el caso de sistemas en capa abierta, que presentan electrones desapareados,
como la interacción entre electrones del mismo espín es diferente de la interacción
entre electrones de espín distinto, se toma una función distinta para los electrones con
espín |o:) y |(3): X2 ¿ - 1 {~&) = ( 'r>) |a) y X2i C^) = V’f C^) 1I3)- Esta definición
se conoce como definición no restringida y espinorbitales no restringidos.

1.6.7 Determinantes de Slater

1.6.7.1 Productos de Hartree.

Si tomamos Ti ~ podremos resolver h f ^ X j (~^) — ejXj (^ )? de forma


que la función polielectrónica se factoriza como PH ( af ( 1 ), 1 ? ( 2 ) z>(W)) =
Xi (1)) X i + I (2)) . . . X k { ~ ^ (N)) y la energía total será E = + £¿+i + . . . +
£k- i&PH no incluye ninguna clase de correlación ni es antisimétrica respecto del
intercambio de electrones. En efecto = lx i|z lx ¿ + i|z *••\ X k \ \ que, desde el
punto de vista estadístico, se puede interpretar como la probabilidad combinada de
un conjunto de sucesos independientes, por lo que se dice que no existe correlación
entre los movimientos de los electrones. Para dos electrones, 1 y 2, la probabilidad
de que los dos ocupen el mismo punto del espacio, jfi, que expresaremos como
(1 ) y (2 ), cada uno en su espinorbital, será \xí ( a?i ( 1 ) ) | 2 \xj ( ^ i (2 ) ) | 2 7^ 0 ,
aunque la repulsión sería infinita y, por lo tanto, debería ser nula. El hecho de que
P { / f 1 , ~r" 1 ) d P f id P f i — 0, como debería ser, se denomina el hueco de Coulomb,
que el producto de Hartree no consigue reproducir.

46
Índice
Capítulo 1

1.6.7.2 Determinante de Slater.


Tomaremos como función de estado de un sistema polielectrónico un producto anti-
simetrizado de espinorbitales, por ejemplo, para dos electrones la función de estado
normalizada será <£ (1,2) = 2 ~ 5 {Xi (1)]Xj (2)] - Xj (1 )\Xi [~& (2)]}.=
'xi[á?(l)] X j [ ^ ( l ) ] ’ poniendo en filas los electrones y en columnas los
Xi (2 )] x j (2 )]
espinorbitales. Para N electrones es fácil generalizar la anterior expresión, de forma
que, simbolizando el determinante por su diagonal:

^ (1? 2 , . . . , iV) = (N\)~^ \xí [a? (1)] X i+ i[ ^( 2 ) ] .. . X fc [^ O T I (1-48)


i
o también ^ ( 1 , 2 , . . . , N ) = TV“ 2 |x¿ Xz+i • • • Xk) que se conoce como determi­
nante de Slater. La última de las dos expresiones presupone que los electrones están
ordenados como 1 , 2 ,. .. TV. Esta forma de función cumple con el principio de anti­
simetría, ya que el intercambio de dos electrones equivale al intercambio de dos filas
del determinante, que cambiará de signo (apartado 1.1.2). También cumple con el
principio de exclusión, ya que si dos electrones ocupan el mismo espinorbital, habrá
dos columnas del determinante iguales, que, por tanto, valdrá cero (apartado 1 .1 .2 ).
Expresando la función de estado polielectrónica como un determinante de Slater
se incluye una cierta correlación entre los electrones del mismo espín. Para un sis­
tema de dos electrones ^ (1,2) = 2 ~ 2 |x¿ x¿|, donde Xi = ^1 \a ) Y Xj = ^2 \P)
(los dos electrones con distinto espín en distintos orbitales), la probabilidad de en­
contrar a un electrón en el entorno de la posición ~r*1 y al otro en el entorno de ~r*2
se obtendrá integrando el cuadrado de la función sobre las coordenadas de espín.

P (T^i, 2 ) (Pr"id^ 2 = j J |\I/|2 d<Jid(T2 d~r*idl? 2

=\ { i V ’l ( ^ l ) l 2 ['02 ( ^ 2 ) | 2 + |V>2 ( ^ l ) | 2 \4>l ( ”^ 2 ) | 2 } dVid'rf2


Para el caso ~r*\ — ~r*2 (los dos electrones en el mismo punto del espacio):
P (“r*!, ~ f\) d~r*id~r*i — \i¡)\ ( ^ í ) ! 2 |V>2 (~^2)\2 d~r"\dPf\ ^ 0, por lo que no
aparece correlación alguna, es decir, el determinante de Slater para dos electrones con
distinto espín no reproduce el hueco de Coulomb. Sin embargo, cuando Xi = ^ 1 \P)
y Xj = t^2 |/5) (los dos electrones con el mismo espín), la probabilidad de encontrar
a los dos electrones en el mismo punto del espacio será: P (T* 1 , J * i) d P fid P fi — 0 ,
expresión del llamado hueco de Fermi, que se obtiene realizando las mismas ope­
raciones que en el caso anterior. Por tanto, cuando los electrones tienen el mismo
espín, sí aparece una correlación entre los electrones que evita su presencia en el
mismo punto del espacio.
El determinante de Slater se puede escribir también como ^ (1,2, . . . N ) =
A ^ PH (1 ,2 , .. . TV), en la que el operador antisimetrizador se puede expresar co­
mo: A =(TV! ) “ 2 1 (—l) Pí *Pi en Ia que Vi intercambia los electrones entre los

47
Índice
Capítulo 1

espinorbitales para dar la permutación i-ésima de las NI posibles, pi es el orden de


la permutación, es decir, el número necesario de intercambios de pares de electrones
para restituir el orden canónico elegido como referencia. Se puede demostrar que
todo operador Q simétrico en las coordenadas del sistema lleva a A , Q = 0 .

1.6.8 Expansión de la función de estado exacta. FCI

Con un conjunto de base de dimensión K y N electrones se pueden formar 2K es­


pinorbitales, de los que N estarán ocupados y 2 K —N vacíos.32 Distribuyendo los N

electrones en los 2 K espinorbitales se pueden formar ^ ^ determinantes distin­

tos. Por convenio, llamaremos |\&o) al determinante de referencia con los N espinor­
bitales de energía más baja ocupados; a, 6 , . . . serán las etiquetas de los espinorbitales
ocupados en \^o); r, s , .. . las de los que no lo estén y, por fin, j . . . se utilizarán
como etiquetas genéricas de los espinorbitales, sin referencia a su carácter de ocupa­
dos o virtuales. De esta forma, un determinante monoexcitado en relación a \^q), en
el que se ha sustituido el espinorbital ocupado a por el virtual r se denotará por 1^ ) ,
uno diexcitado será, por ejemplo, | Con este convenio de nomenclatura, la ex­
pansión de la función de un estado molecular en términos de todos los determinantes
que se pueden construir, conocida como interacción de configuraciones comple­
ta (FCI, full configuration interaction) y que será la solución exacta para la base
escogida de dimensión K , será |<E>) = o 0) + Lar ca l^a) + T ,abrs caí l^aí) + " '

1.6.9 Configuraciones adaptadas de espín

1.6.9.1 Determinantes restringidos y no restringidos.

Llamaremos determinantes restringidos a ' ' ' 'tpk'&k)’ donde 'i¡;i equi­
vale a ipi |/3), en los que los espinorbitales son acordes con la definición restringi­
da (apartado 1.6.6). De forma análoga, llamaremos determinantes no restringidos a
íjjf i'&f+i'tpPi+i **• en l°s l°s espinorbitales son no restringidos.

1 .6.9.2 Configuraciones adaptadas de espín.

Funciones propias de S z: Sea un sistema polielectrónico, cuyos estados describi­


mos mediante determinantes de Slater restringidos, de forma que en los estados en
capa cerrada todos los orbitales espaciales están doblemente ocupados y los estados
en capa abierta tienen algún orbital con un solo electrón. Se demuestra que todos
los determinantes en capa cerrada corresponden a estados singulete S 2 |W) = 0 y
S z = 0. Sin embargo, no todo determinante restringido en capa abierta es función
32Espinorbitales virtuales o vacíos, véase el capítulo dedicado al método Hartree-Fock

48 Índice
Capítulo 1

propia de S 2 aunque sí lo es de S z, de forma que S z |\I>) = 5 (N a — Np) j'I') , donde


N a y Np son el número de electrones a y f3, respectivamente, en el determinante.

Demostración: Teniendo en cuenta que Á , S z = 0 , donde A es el operador


antisimetrizador, S z |\&) = S zA { x u X j , ■■■Xk} A S Z Xji **• Xk}• Los elec­
trones en Xj, *• • Xk} se colocan en el orden canónico 1 , 2 , . . . iV. Desarrollemos
S z = (sZl + s Z2 + •••), la aplicación de sZl sobre Xi nos dará ±^x¿? y 1° mismo para
los demás electrones, de esta forma, sacando \ factor común, quedarán N a términos
positivos idénticos entre sí y Np negativos, => S z |\&) = \ (Na — Np)

Funciones propias de «S2: Conviene utilizar una de las expresiones (1.39), como,
por ejemplo, S 2 |\&) = (S -S + + §1 + S z) |$ ) = S - S + |^ ) + | (N a - N p )2 |^ ) +
\ (N a - Np) I#). Ya que <S_<S+ = Y p 5 - (p) s+ (/*) + E ^t« , * - (ß) * + en_
tonces, (¡i) 5 + (/x) |tf) = Np |$ ) y Y p f r « - (**) *+ iy) I®) = E p ^ a/J l^),
con V apOi ( 1 ) ß (2 ) = a ( 2 ) ß ( 1 ) y la suma se extiende a todos los intercambios
a x ß . Así, ^ |*> = (Np + Y p V a p + \ ( N a - N p )2 + ± ( N a - Np)) |^>. Por
tanto, |^ ) sólo será función propia de S 2 si lo es de 'Pap, lo que sucede (cuando
N a > Np) si Np es igual al número de capas cerradas, si no es así aparecerán otros
determinantes distintos de |\I/ ) . 33
El diagrama de ramificación da, en un sistema cualquiera, el número de estados
posibles de cada multiplicidad según el número de electrones desapareados. Cada
uno de los números en el diagrama se obtiene sumando los dos que hay a su izquierda,
en las líneas inmediatamente superior e inferior.

Veamos por ejemplo la molécula de hidrógeno en base mínima, para la cual ten­
dremos dos electrones en dos orbitales moleculares. Con los dos electrones se pueden

33Si N a < Np la condición es que el número de espinorbitales de tipo a sea igual al número de
capas cerradas.

49
Índice
Capítulo 1

formar seis configuraciones diferentes

4>2 I T L 1 TI
4>i TI
V¡/2
j. t_ i \If22
l *>- - |*o> 1 |*l) |*f 11
M s -= 0 0 1 - 1

M s = m Sl + m.S2
S z a cualquiera de los determinantes. El diagrama de ramificación nos indica que
con dos electrones desapareados obtendremos un singulete y un triplete. La apli­
cación de S 2 a los diferentes determinantes lleva a la conclusión de que \^o),
$ f ) y ^ 2 2 \ son funciones propias con valores propios de 0 , 2 , 2 y 0 , respecti-

vamente, mientras que y no lo son. Así, S 2 |^o) = § 2A j ^ i , 'ipi} —


A S 2 ^>pi, ifti}, como N a = N ß = 1 y Vaß { ^ 1 , ^ 1 } = {V>i,^i} = - { ^ 1 , ^ 1 },
entonces S 2 |^o) = A(1 — 1) {'i/’i>'0i} = 0> Por 1° que S = 0. Sin embargo, en
S2 ^ = AS2 1 , ^ 2 }, como N a = N ß = 1 , V aß {-01, ^ 2 } = { ^ 1 , ^ 2 } y
A ^ T p i , ^ } = l^?)) entonces S 2 * T / + l*i> y no es función propia.

Obtención de configuraciones adaptadas de espín: ¿Cómo obtener funciones


propias de S 2 a partir de determinantes que no lo son? La solución más práctica con­
siste en construir proyectores sobre la función propia de S 2 que se quiera obtener,
para ello utilizaremos la forma de los operadores de proyección del apartado 1.2.6.3,
para nuestro caso, Vj — Yli^j s (S + i ) - S í ( S í + i ) 9ue Pr°yecta sobre el valor propio
Sj (Sj + 1). Volviendo al caso de la molécula de hidrógeno, para obtener a partir de
las funciones propias correspondientes al singulete, S (S + 1 ) = 0, y al triplete
S (S + 1 ) = 2 , construiremos los proyectores V s
— <&
Vt = — -y y los apli-
caremos sobre lTf2^
Í 'jV obteniendo |l1^
1 iTí?2 )\ _
= V s vty = _ i ( q2
m2 \ — \]>2
1 *!»
è (I* ? } + ! * ? > - 2 = \ ( — l ^ i ) ) y> de forma análoga, l3^ 2) =
que son las funciones propias de espín correspon­
dientes al singulete y al triplete, respectivamente.

1.7 SEGUNDA CUANTIZACIÓN

1.7.1 Definición de operadores de creación y aniquilación

La segunda cuantización establece un lenguaje que permite introducir el principio


de antisimetría sin hacer uso explícito de determinantes, basándose únicamente en

50
Índice
Capítulo 1

las propiedades de unos operadores definidos ad hoc. El énfasis se desplaza desde


la función de ondas hasta las integrales (i \ h\ j ) y (ij | kl). Se utilizan unos opera­
dores de propiedades peculiares. Partamos de un conjunto de K espinorbitales y N
electrones.

1.7.1.1 Operadores de creación.

Se asocia a cada espinorbital \x í ) un operador de creación (de electrones34) a\.

Acción de a\: Si |K) — \xk ***Xi) es un determinante de Slater, pueden suceder


una de dos situaciones:
1 . xí no está ocupado en |K). Entonces el operador crea un electrón en ese

espinorbital, es decir, a¡ \Xk ■• -Xl) = IXiXk ■■■Xi)


2. xí ya está ocupado en |K). Entonces, como se verá después, a\ \xk • • • Xi) —
0 , para no violar el principio de exclusión.

1.7.1.2 Operadores de aniquilación.

El operador de aniquilación a¿, adjunto de aj, se define como: a¿ \xiXk *• *Xi) —


\Xk ***Xi)- a%sólo actúa sobre el primer espinorbital en el determinante. Si x% n 0
estuviese el primero, habrá que llevarlo hasta la primera posición, mediante p inter­
cambios de dos espinorbitales, y el determinante quedará multiplicado por (—l)p,
por ejemplo, a¿ |XkXiXl) = «i ( - IXiXkXl}) = ~ IXkXi)-
Para demostrar que ai y a] son adjunto uno de otro, supongamos |K) = \XiXj) =
a\ \X])- El adjunto de esta expresión será: (K\ = ( x j j Si |K ) está normalizado,
y Xj también: ( K \ K) = (xj \at\K) = (xj M XiXj) = (Xj I Xj) = 1

1.7.2 Operadores de aniquilación y creación: relaciones de anticonmutación

1.7.2.1 Propiedades de los operadores de creación.

Supongamos dos operadores de creación a jaj actuando sobre un determinante donde


Xí y Xj n0 están ocupados: aja] \xk ■■■Xi) = \XiXjXk ■■■Xi)■ Si ahora hace­
mos actuar los operadores en orden inverso: a^a\ \xk • • ■Xi) = IXjXiXk ■■■Xi) —
~ ¡XiXjXk ■■■Xl) = “ aí aJ IXk--- Xl), por tanto, afaj = - a j a J y, por tanto,

\ a \ , a]} = aja] + aja] = 0 (1.49)

34L o s operadores que se definen en este apartado se refieren a fermiones. Existe un desarrollo alter­
nativo para bosones. Para mayor información el lector interesado puede consultar, por ejemplo, el libro
de Avery o el de Lindgren.

51 Índice
Capítulo 1

es decir, los operadores de creación anticonmufan, lo que refleja el principio de anti­


simetría. Aplicando la expresión (1.49) para i = j , se llega a:

a\ a\ = ~a¡a¡ = 0 (1.50)
es decir, no se pueden crear dos electrones en el mismo espinorbital.Por tanto, la
expresión (1.50) implica el principio de exclusión.

1.7.2.2 Propiedades de lqs operadores de aniquilación.

Tomando el adjunto de la expresión (1.49) llegamos a:


, £íj ^ — CbiCLj | CLi&j — 0 (1.51)
que refleja elprincipio de antisimetría, como antes. Tomando i = j en la ecuación
(1.51) se llega a: = —a¿a¿ = 0 y, por tanto, no se puede aniquilar dos veces un
electrón del mismo espinorbital, lo que implica el principio de exclusión de Pauli: Si
i <£ {A;. . . /} =» a¿ Ixfc • • • Xl) = 0.

1.7.2.3 Relación entre operadores de creación y aniquilación.

Relación entre a¡ y Tomemos+ a¡ ai J \xu • **Xi)- Pueden presentarse


dos casos:
- Xi n 0 está ocupado m \ x k ' " Xl)- Entonces, a¿a| + a|a¿ = 1
- Xi está ocupado en \xk ***Xl)- Entonces, a¿aj + aja¿ = 1
Como conclusión | a | , j = 1

Relación entre aj y a¿: Tomemos+ a^a^j |X k " ' Xl)• Pueden presentarse
tres casos:
- xí y Xi están ambos ocupados en \xk *• *xO*
- X¿ y Xi están ambos vacíos en \xk **• X/)-
“ X¿ y Xi están uno ocupado y el otro vacío en \xk • • *Xz)-
En los tres casos resulta que: |xfc ***Xz) = 0* P°r tanto, se puede
resumir como |a¿, = 0.
Las dos expresiones obtenidas pueden resumirse en una sola:

{ai , a ] } = 6ij (1.52)

Así, la sucesión a¿aj puede sustituirse por:

(Haj — 5ij ajai (1.53)


Las relaciones (1-49), (1.51) y .(1.52) permiten tratar con sistemas de electrones
(fermiones) sin necesidad de utilizar explícitamente los determinantes de Slater.

52 Índice
Capítulo 1

1.7.3 Configuraciones electrónicas

1.7.3.1 Estado del vacío. Propiedades.

Definiremos el estado del vacío como un determinante normalizado con todos los
espinorbitales vacíos, | ), por tanto, ( | ) — 1. De esta forma a¿ | ) = 0 = ( | aj.

1.7.3.2 Determinantes de Slater. Configuraciones electrónicas.

Un determinante de Slater se podrá escribir como una sucesión de operadores de


creación actuando sobre el estado del vacío: |K ) = \XiXk ■■• Xi) = aí aí " ' aí I )>
representación en la segunda cuantización de un determinante de Slater.

Aplicaciones: Recubrimiento entre dos determinantes il a¡ a2 ) ] . Como


IL) = a'ka¡ | )
(K\ = ( | ajai, (K | L) = { | a jü ia la j | ). Aplicaremos sucesivamente la relación
(1.53) hasta conseguir que algún operador de aniquilación quede a la derecha, ac­
tuando sobre el estado del vacío, guardando los términos no nulos. Empezamos con
a¿a£, obteniendo: (K \ L) = ¿ik (\ aj a] \ ) — ( | | ). La relación (1.53) se
aplica ahora a ajaJ y a 2a |, llegando, al final, a: {K \ L) — SikSji — Suójk.

1.7.4 Operadores de excitación y determinantes en el desarrollo FCI

1.7.4.1 Operador de excitación.

El operador a\aj será un operador de excitación, porque sustituye el espinorbital


ocupado Xj Por el virtual Xí- Por ejemplo, sea el determinante ajj • • • aj • • • aj | ), en­
tonces: aj aj al ■■■a) ■■■a¡ | ) = ( - l ) p a to ja ]a ¡ • • • aj | ) = ( - l ) p a¡a¡ ■• • a¡ | ) =
(—l ) 2p a \ ■■- a] • • - aj | )
Al operador a¡ a, se le llama operador de ocupación, puesto que, aplicado sobre
un determinante |K ) el valor propio obtenido es 1, si el espinorbital está ocupado, o
0 si está vacío, de forma que el número de electrones viene dado por N = aí a¿-

1.7.4.2 Desarrollo FCI.

Un operador de excitación, a].aa, permitirá obtener configuraciones monoexcitadas,


|vl>£) = 4® a l^o), dos, a\aba la a, diexcitadas, | ^ | ) = a\abalaa j'I'o), etc. La
función FCI se podrá expresar como el resultado que se obtiene al aplicar el operador
(l + E a E r + E a E r Eb E s + • ■■) Sobre |®0).

53
Índice
Capítulo 1

1.7.5 Elementos de matriz y operadores en el formalismo de la segunda cuan-


tización

1.7.5.1 Operadores en segunda cuantización.


En general, cualquier operador, O , de interés en Química Cuántica puede expresarse
como suma de una parte monoelectrónica y otra bielectrónica, O = Ó\ + O 2 . Como,
por ejemplo, 0 \ = E ¿ ^ y ^ 2 = J2 j>i rIjl - En el formalismo de la segunda
cuantización los operadores asociados al cálculo Hartree-Fock se expresan como:
K K
Oí = ^ 2 ( i\h \ j) a¡a,j y 0 2 = - ^ (i j \ kl) a\a\aiak (1.54)
ijkl

Hay que destacar que las sumas se hacen sobre el número de espinorbitales, por lo
que las expresiones (1.54) son independientes del número de electrones, siendo muy
convenientes para sistemas extensos, como por ejemplo, para estado sólido. También
hay que señalar que en las expresiones de los operadores aparecen explícitamente las
integrales sobre los espinorbitales.

1.7.5.2 Energía de un determinante Hartree-Fock.

Sea el determinante fundamental Hartree-Fock |^o) = a \a \ • *• ¿4 • • • a\ • *• ajy | )•


Valor promedio de Ó \\ (\&o Oí /* Sólo en
el caso de que j G {1, 2 , . . . a , . . . 6 , . . . N} las integrales sobre los operadores a\aj
serán no nulos. Entonces, (Sbo Oí ^ o ) = J2ab(a W &) at ab Apli-
cando la expresión (1.53): ( ^ 0 Oí &o) = E a b ( a lh í b) ( ^ o óab - abafa '¡f0) =
£& H /i|6)5o6 = E ? < a H a ) .
Valor promedio de d 2\ Ob0 d 2 í' o ) = \ T djki (¿3 I k l) 0&O a\a^aiak
De nuevo, si y sólo si i , j , k , l € {1, 2 , . . . a , . .. b, .. . N} , la integral sobre a\a\aiak
1^3
será no nula, así que: ( í ' > ) = l2 Y , l c d ^ \ c d ) ( * o í'o'). El
conjunto de operadores a^aa\adac se puede desarrollar haciendo uso repetidamente
de la expresión (1.53) hasta llegar a: <4a£ada c = dbd5ac - hc^ad- De esta forma,
*0 <52 * 0 ) = E abcd {*b | Cd) (SbdSac - 6bcSad) = \ Zab (ab || ab)

1.7.5.3 Elementos de matriz.

El conjunto de las reglas de integración de Slater-Condon para elementos de matriz


entre dos determinantes, \K) y \L), se pueden deducir a partir del formalismo de la
segunda cuantización. Así, los diferentes casos posibles son:

1. \K) y \L) son iguales: Es el mismo caso del apartado anterior.

54
Índice
Capítulo 1

2. |K ) = \xk ■■■Xm ■■■x/} y |£> = Ixfe • • •x P ■ ■ ■ x i ) = \K ) (difieren en


un espinorbital):

[ K Ox L ) = Z?j { i \ h \ j ) { K a\ a3apam K ) .
Con (1.53): ( K o\ 0>jQ'pQ'm K ^ — ñjpfiim-
Entonces: ( K <5l L ) = Yd,j (i\h \j) Sjpóim = (m |/i| p).

K o2 L ) = \ T.fjkl ( v i k l) { K a¡a¡aiaka la m K
Con (1.53): { K a¡aja¿afca|,am
-f-ófcp Sj i ¿kp^jm ^il-
1
Entonces, ( K 0 2 \ " 3VJ IIjp
~ h2 E¿ - f/ j {m J )f ! + I 52 £ ¿ V {im I ip)
+\ E f (mj Ipj) - 5 £ f Ipi) == Eí^
] (n»¿ I pi)
3. |K ) y \L) difieren en dos espinorbitales: si |L) = o ^ a |a nam |K )

K O i £ ) = £ £nj< * N i ) ( *
4
Con (1.53): (ütT - aj apaqc k ) = 0.

K 02 L ) = ^ f j k i ( i j \ k l ) { K a\a^aiaka la \a nam K ) .
Se obtiene: ^ K ala^aiaka^a^anam K^j — $lp$kq$in$jm $lp$kq$jn$im
^kp^l q&in&jm “í~ $kp$lq$jn$im
Ó 2 l ) = (m n II pq).

4. \K) y \L) difiere n en más de dos espinorbitales:

K o2 L) = 0.

1.8 IN TR O D U CC IO N A LA M ECANICA ESTADISTICA

1.8.1 Introducción
La mecánica estadística es la teoría mediante la cual estudiamos el comportamiento
e implicaciones de las fluctuaciones naturales espontáneas. Las fluctuaciones son
importantes, ya que sin ellas los líquidos nunca hervirían, el cielo no difractaría la
luz solar, todos los procesos dinámicos de la vida cesarían, etc. Las fluctuaciones
conducen a un estado de caos creciente.
La mecánica estadística estudia las magnitudes y las escalas de tiempo de las fluc­
tuaciones y las estabilidades o inestabilidades de las estructuras que las fluctuaciones
espontáneas inevitablemente destruyen.

55
Índice
Capítulo 1

La presencia de las fluctuaciones es una consecuencia de la complejidad de los


sistemas que observamos. De hecho, la ignorancia es una ley natural de los sistemas
de muchas partículas y ello conduce a la descripción estadística de las observaciones
y a la constatación de que las fluctuaciones están siempre presentes

1.8.2 La Construcción de la Termodinámica.

Nos centraremos en la termodinámica del equilibrio y en los aspectos relativos a los


flujos de energía necesarios para llevar sistemas macroscópicos fuera de las condi­
ciones de equilibrio.

1.8.2.1 La Primera Ley.

Sea E la energía interna, esto es la energía total de un sistema, por tanto obedecerá
dos propiedades señaladas, (i) Será extensiva y (ii) Se conserva. Escribamos, pues,
la energía interna como,
d E = dQ + d W (1.55)
donde, el trabajo es d W = f-<iX, siendo f el conjunto de fuerzas generalizadas y X el
conjunto de las variables mecánicas extensivas asociadas a las fuerzas. La definición
del calor, dQ, no estará completa hasta que no hayamos descrito algún procedimien­
to para controlarlo. A saber, las paredes adiabáticas. Estas son restricciones que
impiden el paso de calor.
Es preciso remarcar que tanto el calor como el trabajo son formas de transferencia
de energía. Así, existe una cantidad E , pero no existen ni W ni Q, aunque dE =
dQ + dW .
La experiencia científica ha corroborado que los sistemas aislados evolucionan
hacia unos determinados estados terminales, cuya descripción es sencilla. Dichos
estados se llaman de equilibrio y de hecho pueden ser caracterizados por un conjunto
reducido de variables extensivas, tales como E y X.

1.8.2.2 La Segunda Ley.

Uno de los varios posibles enunciados equivalentes y de hecho el más adecuado a


nuestros propósitos es: Existe una función de estado S ( E , X), que llamaremos en­
tropía, monótonamente creciente con la energía, tal que si el estado B es adiabáti­
camente accesible desde el estado A, entonces S# >
Un corolario inmediato de este enunciado es:

• Si el proceso es reversible, entonces el estado A es también accesible desde el


estado B , por tanto para procesos reversibles, S a = Sb- A sí pues la segunda
ley proclama que (A S )acnatatiCO > 0 , siendo la igualdad para los procesos
reversibles.

56
Índice
Capítulo 1

La entropía en una función de estado, esto es está definida para aquellos estados
caracterizables mediante las variables extensivas del sistema, E y X, aquellos que
llamamos estados de equilibrio.
Las variaciones de la entropía, por tanto, se escribirán como

(1.56)

Teniendo en cuenta que d E = (dQ )rev + f • dX., tenemos que

dS = +
(1) E
+ f
dE)* .
dX (1.57)

Como para los procesos reversibles (dQ)rev = 0, y además hemos demostrado que
también la variación de entropía es cero, tenemos que,

(\ d- X) j E = f (1.58)
dE)*
Recordemos que la segunda ley impone que la entropía debe ser una función
monótonamente creciente de E, por tanto la siguiente derivada asegura que la tem­
peratura, que se define en la ecuación (1.59), será positiva,

t H ‘ (\d—s)x
) >o
- (1.59)

y teniendo en cuenta la ecuación (1.56) obtenemos que,

dS = - d E ■dX (1.60)

o bien
d E = T d S + f ■dX (1.61)
En definitiva, que la energía es una función de la entropía y de las variables extensivas
del sistema.

1.8.2.3 La formulación variacional de la segunda ley


Definamos las restricciones internas de un sistema como aquellas restricciones im­
puestas a las variables extensivas que no alteran su valor total. En la Figura (1.8.2.3),
se puede obeservar que el pistón externo varía el volumen total del sistema si se ac­
ciona, pero la posición de la pared interna solo varía el reparto del volumen entre los
subsistemas (1) y (2), conservando el volumen total. Por tanto, el pistón no es una
restricción interna, mientras que la pared interna sí lo es.
Consideremos el proceso de la Figura (1.8.2.3). Esto es, llevamos el sistema
reversiblemente a S f mediante el accionamiento de alguna restricción interna. Esto

57
Índice
Capítulo 1

Figura 1.1: Restricciones internas.

vw V(2)

requiere trabajo y consecuentemente un flujo de calor ya que la energía total E es


igual en 5 y en 5 ;. Aislemos adibáticamente el sistema en S ' y permitamos que se
relaje la restricción interna. El sistema terminará por tanto en S y de acuerdo a la
segunda ley, tendremos que S —S f > = 0. Esto es

S ( E, X) > £'(£', X , restricción interna) (1.62)

En otras palabras el estado de equilibrio es aquel que hace máxima la función

Figura 1.2: Cambios en la entropía para un proceso en el que se manipulan las re­
stricciones internas.
R estricción Interna

S’
P ro c eso de
relajación

S( E, X , restricción interna). Un corolario de esta formulación es que la energía


en el estado de equilibrio es un mínimo de la función E(S, X, restricción interna).

1 .8.2.4 Funciones Auxiliares. Transformada de Legendre


La forma de escribir la ecuación diferencial del trabajo reversible más adecuada para
los sistemas químicos y biológicos es,
r
(1.63)

Por tanto,
r
(1.64)

58
Índice
Capítulo 1

Lo cual nos indica que la energía es una función natural de las variables extensi­
vas, (5, V, (rii)l=1). Supongamos que deseemos caracterizar el sistema mediante,
por ejemplo: (T, V, (n¿)¿=1). Es tal caracterización posible ?. Cuál el la función
termodinámica equivalente a E que es función de (T, V, (n¿)¿=1)?.
Sea / = f ( x i , xn), por tanto,

(1.65)

Sea g — f — Yl?=r uíx ú con 1° cual?


n
dg = d f — 'y^\LUjdxj + Xidui] (1.66)
i= r

a partir de esta ecuación es fácil probar que,


r n
dg = 'Y ^ u id x i+ ^ 2 (- xí ) dui (1.67)
Í= 1
Ahora bien, observemos que g es una función de ( x i , x r , •••, ^n)- La función
p es la transformada de Legendre de la función / . No olvidemos que este proced-
imiento nos dice no solo la forma de la función g, sino también su forma diferencial
(ecuación (1.67)).
Respecto a nuestras funciones termodinámicas, recordemos que E = E ( S , V, n),
para un sistema de un solo componente. La función equivalente a E función de
(T, V , n) es por tanto, A — E — T 5 y s u forma diferencial será,

dA = —S d T —pd V + ¡idn (1.68)

Esta es la llamada energía libre de Helmholtz. Otras funciones equivalentes a la


energía usadas habitualmente son, la energía libre de Gibbs, G = E —T S —(—pV) =
E - T S - P V y la entalpia, H = E - ( - p V ) = E + pV.

1.8.2.5 Ecuaciones del Maxwell

Recordemos que si una función /( x , y ) se comporta regularmente entonces, df =


adx + bdy satisface la igualdad de Schwartz,

(1.69)

Por tanto, ya que nuestras funciones termodinámicas son regulares deben satisfacer
esta condición. Así, de dA = —S d T — pdV + fidn, se obtiene,

(1.70)

59
Índice
Capítulo 1

o bien de dG = —S d T + Vdp + ¡idn,


dS\ fdV\
~dpJn,T ~ ~ \ d f / P,n (L71)
Estas relaciones se conocen como ecuaciones de Maxwell y tiene la particularidad
de que relacionan variaciones de las variables de estado con variaciones térmicas,
haciendo por tanto que de estos experimentos se puedan obtener las ecuaciones de
estado del sistema por integración

1.8.2.6 La ecuación de Gibbs-Duhem

Comencemos con el teorema de Euler para funciones homogéneas. Sea / una función
homogénea de grado 1. Esto es, para el escalamiento lineal U{ — \ x ¿,Vz, de las
variables de / se satisface que,

f ( u i , ...,u n) = Xf ( x i , ...,x n) (1.72)

Con lo cual la derivada de / con repecto a A manteniendo constantes las variable


es simplemente / ( # i , x n). Por otro lado debido a que,

# = t ( £ ) ** (1 ^ )
i= 1

tenemos que

y por tanto, para A = 1 ,

f(x = Xi (1.75)
i —1 1 xj ¥:í

Apliquemos este teorema a la energía ya que es una función homogénea de grado 1


respecto a las variables extensivas,
• La energía total del sistema es E = E ( S , X ), por tanto,
„ fdE \ fdE \
£ = U ) x S + ( a x ) s ' X = TS + f ' X ( 1 ' 7 6 )

Y si escribimos f • X = —pdV + Y a ^ id n t, se obtiene que E = T S — p V +


Y a llínt- Lo cuál es la forma de la función E. Ahora bien diferenciemos esta
última ecuación,

dE = T d S + S d T - pd V - Vdp + y i ¡J-idrii + Y 2 riidfjLi (1.77)

60
Índice
Capítulo 1

Recordando la ecuación diferencial de E , ver ecuación (1.61), obtenemos la


ecuación de Gibbs-Duhem,
n

0 = S d T - Vdp + J 2 nidfH (1.78)


i

1.8.2.7 Equilibrio y estabilidad

Hasta ahora hemos analizado, someramente, las condiciones y las propiedades de los
sistemas en equilibrio. Ahora analizaremos la respuesta que estos sistemas producen
frente a perturbaciones que los alejan del equilibrio. Estas perturbaciones serán pro­
ducidas por restricciones internas. Esto es, modificando el reparto de las variables
extensivas en el sistema, pero manteniendo el total constante. La segunda ley obliga
a que dichos cambios lleven a estados de menor entropía o mayor energía.
Demostraremos que mantener T , p y ¡i constantes en todo sistema equivale a
asegurar que la entropía adquiere un valor extremo respecto a la repartición de las
variables extensivas. Sin embargo para distinguir entre máximo y mínimo debemos
continuar el análisis hasta averiguar el signo de la curvatura en esos puntos extremos.
Esto nos conducirá a las condiciones de estabilidad. Por ejemplo, para muchos sis­
temas estables se tiene que ( d T / d S ) Vn > 0 o (.d p / d V ) Tn < 0 .
Como vemos, las condiciones de estabilidad afectan a los signos de las derivadas
de variables intesivas respecto a sus correspondientes variables extensivas conjugadas
o bien, recordando las ecuaciones de Maxwell a las segundas derivadas de la la en­
ergías libres respecto a las variables extensivas del sistema.

1.8.2.8 Equilibrio Multifásico


Supongamos un sistema adibáticamente aislado en el cual repartimos las variables
extensivas S , V y ( n * ) ^ en dos subsistemas. Debido a que esto es una restricción
interna el valor total de las variables debe manterse y por tanto ulteriores repartos
entre los subsistemas ( 1 ) y (2 ) deben satisfacer las siguientes condiciones,

ss^ = ssW ; S = J 2 S<*


a=l

SVV = -SVM ; V = ]T V a
a= 1
2
ó rij1^ = - S rij^ ; n j — ^ 2 n j
a=l

Por tanto, empleando la forma de SE, (ecuación (1.61)), para cada una de las
fases y teniendo en cuenta que E es extensiva, (5 E ) s y tm — ^ ^ s y n i + ^ ^ s v n 2y

61 Índice
Capítulo 1

obtendremos que,

m s ,v „ = ( t M - T W ) 6S M

- — p ^ ) <5FW + ^¡T ( /4 ^ —Vi*'1) (1-79)


2=1

y como las variaciones 5 S ^ \ ¿V^1) y <5n^ están desacopladas, la única solución


aceptable a la condición (SE)s v n . > 0 es,

T (i) = T & ; p (1) = p (2); ^ - /4 2)>v¿ C1-80)

Lo cual garantiza que (¿I ? ) 5 v = 0, para los desplazamientos que alejen al sistema
del equilibrio.

1.8.2.9 Estabilidad

En términos de la energía los desplazamientos a estados alejados del equilibrio puedo


escribirlos como,

(A E )StVm = (Í B ) s y ,n, + ^ E ) s v x + ( ¡ 3E ) s V n i + . . . (1.81)

Como ya hemos visto que (5E)SVni = 0, y ya que el término cuadrático de la


ecuación (1.81) será el dominante la condición de estabilidad será por tanto,

( S2 E ) > 0 (1.82)
V Js,V,ni - V '

para asegurar que (A E ) S Vn > 0 de acuerdo a la formulación variacional del princi­


pio de energía mínima. Así pues,

(d 2 E j <|=0 Metaestble (1.83)


n [ <0 Inestable

Consideremos un sistema de un componente, en el que la restricción interna apli­


cada es tal que reparte solo la entropía del sistema entredos sistemas ( 1 ) y (2 ), esto
es. 8S = 0 = 5 S ^ + 5S(2\ pero S V ^ = 5 V ^ = 5n^ = Sn^ =0. Por tanto,

§2E = (<52 e ) X+ (5 2 e ) 2

■ \ (\ s / i V,n M ’ - i f\ S C/ V,n <“ ’


62 Índice
Capítulo 1

Como 5 S ^ = —S S ^ entonces = (jiS^2^ y como, (d 2 E / d S 2) V,n


=(dT/ d S )v n =T/ Cv, la ecuación anterior se transforma en,

j.(l) j>(2 )
+
r'-'"U
(l)
1 1
(1.85)
= Í ( {S(1,)2r r (l)
+
c y(v2)
y debido a que la división en los subsistemas es arbritaria, la condición (52 E ) sy,n >
0 implica que,
T_
a
1 1
+ >0 & >o ( 1.86)
_Lsy
En definitiva, los sistemas estables tienen la capacidad calorífica a volumen constante
positiva. Esta es una condición de estabilidad derivada a partir de la ecuación (1.83).

1.8.3 Mecánica Estadística


Si las partículas obedecen ciertas leyes microscópicas de acuerdo a determinadas
interacciones interpartícula, cuáles son las propiedades observables de un sistema
que contiene un gran número de tales partículas ?. A primera vista podríamos decir
que a medida que el número de partículas crece, crece asimismo la complejidad del
sistema y la dificultad de precisar las propiedades de tal sistema. Sin embargo, los
sistemas con muchas partículas son de alguna manera, sistemas bastante ordenados.
De hecho, acabamos de aprender que los estados de equilibrio de dichos sistemas
se pueden describir completamente con un conjunto discreto reducido de variables.
En lo que sigue, mostraremos la relación que dichas variables tienen con las leyes
microscópicas que rigen el comportamiento dinámico de las partículas del sistema.

1.8.3.1 Colectivos
Imaginemos que pudiéramos escudriñar un conjunto de muchas partículas en un esta­
do macroscópico determinado. Asignemos un punto a cada estado, micro.cópico, del
conjunto de las partículas del sistema. Esto es, si se trata de una descripción clásica,
asigneremos el punto = ( f i , . . . , f / v ; p i , . . . , p n ), siendo r¿ y pi el vec­
tor de posición y del momento lineal de la partícula i. Estos dos vectores describen,
clásicamente de forma completa el estado dinámico de la partícula i, esto es su estado
microscópico. El conjunto de todos los puntos ( r N N ^J, constituye el espacio de
las fases del sistema. Cada uno de los puntos del espacio de las fases, describe com­
pletamente el estado dinámico clásico del sistema, y el devenir del sistema en este
espacio está determinado por las ecuaciones dinámicas que obedecen las partículas
del sistema y caracteriza su estado macroscópico. Un concepto básico de la mecánica

63 Índice
Capítulo 1

estadística es que si esperamos el tiempo suficiente el sistema discurrirá por todos los
puntos del estado de las fases que sean compatibles con las restricciones que hemos
impuesto al sistema.
Sean Ga los valores de una propiedad G en todos y cada uno de los estados {a}^f 9
visitados por el sistema. Por tanto el valor promedio de la propiedad G será,

Gobs - Y ! Ga (1.87)
a=1
Esta suma se puede expresar de una manera más conveniente como,

n um ero de veces que


el estado v es visitado
Gh (1.88)
77 durante las Á í
observaciones

en esta ecuación Gu = (v | G | v) es el valor esperado de G cuando el sistema se en­


cuentra en el estado v. Obviamente, el término entre los corchetes es la probabilidad
de que el sistema visite el estado v. Así pues,

Gobs = J 2 P»Gu = (G) (1.89)

(G) es promedio del coletivo para el observable G. Un colectivo, por tanto, es el


conjunto de todos los estados compatibles con las restricciones impuestas al sistema.
Es importante darse cuenta en este momento que el promedio del colectivo, no es
necesariamente igual al promedio temporal. Esto es,
i
lim - / G(tf)dtf (1.90)
í—>oo t Jo
no es necesariamente igual a (G). El determinar las condiciones para que se de esta
igualdad es lo que se conoce como el problema ergódico, acerca del cual no diremos
nada en estas notas.

1.8.3.2 Colectivo Microcanónico

La idea básica de la mecánica estadística es que si el tiempo de observación es sufi­


cientemente largo, todos los estados microscópicos o fluctuaciones compatibles con
las restricciones del sistema ocurren y por tanto las propiedades observables son de
hecho promedios sobre todos estos estados microscópicos. Por tanto, debemos apren­
der más sobre las probabilidades asociadas a estos estados microscópicos. De hecho,
para un sistema aislado con una energía fija E , por estar aislado, y un tamaño fijo
(V, n¿) todos los estados microscópicos son igualmente posibles (pero no necesaria­
mente igualmente probables). Tengamos asismismo en cuenta que,

64 Índice
Capítulo 1

• El estado de equilibrio corresponde al estado de máximo desorden.

• La distribución del los estados microscópicos con la misma energía y el mismo


tamaño es completamente uniforme.

Definamos la magnitud O como,

O (N V E ) — l num ero ^ e es^a^ os Tnicroscopicos con N y V 1


^ ’ 5 [ y con energía comprendida entre E y E + 5E J

El intervalo SE proviene de la imposibildad de especificar completamente la energía


de un sistema macroscópico. Si SE = 0 entonces íl(N, V, E) sería una función
discontinua y los picos O / 0 representarían la degeneración del estado con energía,
E. Con SE > 0 , O(N, V, E) es una función susceptible de análisis matemático. Sin
embargo los resultados son insensibles el tamaño de SE. O así definida es de hecho
una densidad de estados.
La hipótesis de Boltzmann, la cual esta escrita sobre su tumba en Viena, afirma
que
S = k B In Q(N, V, E), siendo kB = 1.38xl0"23J / K (1.92)
Esta hipótesis es de hecho compatible con

• Si los sistemas A y B son compatibles, el número de estados del sistema total


sera, ÍI a ^ b y por tanto S = k s ln (0 ^ + Ob ) = S a + S b , esto es la entropía
de Boltzmann es extensiva.

• Si dividimos un sistema (iV, V, E) mediante una restricción interna en dos sub­


sistemas (Ni, Vi, Ei ) y (N 2 , V2 , E 2 ) respectivamente, el número de estados
del sistema sin dividir es mayor que la suma de los estados de los sistemas
divididos, por tanto S ( N 3 V, E) > S( N, V, E; restricción interna). Lo cual
constituye al formulación variacional del segundo principio.

Por otro lado, la definición de la temperatura, ecuación (1.59), requiere que


Q (N , V, E ) sea una función monótonamente creciente con la energía. No se ha en­
contrado, por el momento, ningún sistema que viole esta suposición.

1.8.3.3 Colectivo Canónico


Es el conjunto contituido por todos los microestados con N y V fijos. La energía
sin embargo, puede fluctuar y el sistema se mantiene en equilibrio poniéndolo en
contacto con un baño térmico a la temperatura T.
Consideremos el caso en el que el baño es tan grande que la energía, E b del
baño mucho mayor que las energías accesibles, E u, del sistema. Por tanto podemos
considerar que E + E b es constante. Supongamos que el sistema está en el estado v.
El número de estados accesibles por el sistema total, el cual es aislado y por tanto es
Índice
65
Capítulo 1

, un conjunto microcanónico al ser su energía E , además de V y N , constantes, es por


tanto el número de estado accesible del baño. Esto es ü ( E g ) - Q( E —E u). Cuando
el sistema está en otro estado v', el número de estados accesibles al sistema total será
Q.(E — Ey'). Por tanto la probabilidad de los estados v y u' del sistema interior debe
ser proporcional a il(E —E v) y i l ( E — E¡/). repectivamente. Así pues,
Pu oc Ü (E — E u) (1-93)
Como -C E , podemos expandir ln Q,(E — E¡,) en una serie de Taylor,

\ n Ü { E - E v) = l n ü ( E ) - E „ + ... (1.94)
\ Oh J Ny

truncando la serie en le término lineal y escribiendo (<91n Q / d E ) N v = 1 /k s T = f3,


tenemos,
ln O (£ ’ —E u) = lnO (£') —(3EU (1.95)
Por tanto,
Pv = e-PE" (1.96)
Ahora bien, las probabilidades deben estar normalizadas a la unidad, o sea: Pv —
1 . La normalización de la ecuación anterior conduce a Pv— exp(—f3Eu)/Q, donde

Q ( P , N , V ) = ¿2e-<3E" (1.97)
y
es la función de partición canónica.
La función de partición determina el valor promedio de la energía. En efecto,
„ T E p~@Eu
(E) = (£„) =

= - ( Í ) w. v 5 = - ( ^ ) w.v (L98)
Así como las fluctuaciones de la energía en el sistema, esto es,

{(SE)2) = ( E 2 ) - { E )2 = Y ,P „ E 2v - ( j T P ^

i ( d 2Q \ _ J _ ( d Q \ 2
Q \d(32 ) N V Q2 \d (3jNy

■ <■«
La amplitud de las fluctuaciones espontáneas esta relacionada con la velocidad de
cambio de la energía debida a las alteraciones en la temperatura.
Asimismo, se puede demostrar fácilmente la siguiente relación entre la función
de partición y la energía libre de Helmholtz: Q = exp (—/3Á).
Índice
66
Capítulo 1

Un ejemplo simple. Consideremos un sistema de N partículas distingibles, cada


una de las cuales puede existir en alguno de dos estados cuya diferencia en energía
es e. El estado u del sistema se puede, por tanto, describir especificando el estado de
cada una de las partículas. Esto es, v = ( n i , . . . , n ¿ , . . . , njv), donde rtj e { 0, 1}
representa el estado de la partícula j , con lo cual la energía del sistema es =
V—
NN
E j= l n3e-
• Apliquemos el conjunto microcanónico. La degeneración del m -simo estado
del sistema es,

Ü{E,N) = , , Af ! ..con m = — (1.100)


v ’ m l( N — m )\ e v '
Por tanto, la entropía y la temperatura serán,

Para sistemas con un número, N , grande de partículas, podemos emplear la


aproximación de Stirling del logaritmo del factorial en la ecuación (1.100) para
completar la derivada indicada en la ecuación (1.101). Con ello obtenemos que,

fie = ln ( — - l ) 4* ^ = —g ( 1 .1 0 2 )
H \m ) N l + eP£ v ’
y por tanto,

<B>=m
£=rS» (L103)
• Apliquemos el conjunto canónico. Para ello partimos de las propiedades de la
función de partición (ecuación (1.97)), esto es, —(3A = ln Q = ln
donde,

Q( f i , N) = £ e ~ ^ U ^ = Y, n f = 1 e“ ^
n i,...,n ]v =0,l ni ,...,njv=0,l

= n f=i ^ e ^/3Críj j = n i= i ( X+ e - » « )

= (1 + e~ P e)N (1.104)

Así pues,
- f i A = N ln ( l + e-/?£) (1.105)
con lo cual obtenemos
ee -/3e . Ne
(1.106)
1 + e-
La misma expresión que la obtenida con el conjunto microcónico.
Índice
Capítulo 1

1.8.3.4 Conjunto grand-canònico

Consideremos un sistema en equilibrio en el cual tanto E como X puedan fluctuar.


Nuestro sistema es parte de otro sistema mayor que actúa como reservorio de E y
X . En el sistema total tanto E como X se mantienen constantes. Tal y como hemos
hecho en la sección anterior, desarrollaremos InO (E — E u, X —X^) alrededor de
(£,X).
,
- lníl(E,X)
, rwn ^
£n ,(f d g\ oE. ü Jx
\ '
9X J
( d ÍXiü\
Xu( ex^ + -.-

= ln O (E , X ) - E up - Í X V (1.107)

para obetener la última expresión nos hemosquedado solo con los términos lineales
del desarrollo y hemos tenido en cuenta que d S / k s = d l n í i = (3dE + £dX. Con
todo ello, es claro que,
Pu oc elnü = (1.108)
y si normalizamos esta probabilidad obtendremos que,
-(3E U- £ X U
Pu = ------ 5 ------ (1.109)

Siendo S = Ylu exP {—f3Eu — £X v) la función de partición grand-canónica, a partir


de la cual se obtienen los valores promedio de las variables extensivas,

< * > - ? * - * ■ - m = ? p^ = ( ^ L < 1 •n o ,

siendo Y el conjunto de variables extensivas del sistema que no fluctúan.


Consideremos ahora la siguiente fórmula, S = —k s Pv lnP*,. Teniendo en
cuenta la ecuación (1.109),

<S = - k B J P^
V
2 ( - lnS - PE * - Zx v) = k 'B (InS + P( E) + S( X) ) (1.111)

Esta ecuación indica que S / k s es la transformada de Legendre que convierte InS


(una entropía de acuerdo a la definición de Boltzmann) en una función de (E) y (X).
Por tanto, la función S es de hecho la entropía S , Esta es la llamada fórmula de la
entropía de Gibbs, con la cual es fácil demostrar que,

ln Z = (3pV (1*112)

1.8.4 Sistemas de partículas que no interaccionan entre sí

La función de partición muestra que en ausencia de restricciones las fluctuaciones


ocurren espontáneamente con una probabilidad gobernada por la energía de los es­
tados de las estructuras que se generan, comparada con la energía térmica de Boltz­
mann, k s T = (3~l . Por tanto, a temperaturas $ltas habrá mayor probabilidad para
Índice
68
Capítulo 1

las fluctuaciones y cuando T —* 0, solo aquellos estados para los que la energía por
partícula sea igual a la energía por partícula del estado fundamental, serán accesibles.
El primer paso para analizar cualquier modelo es la clasificación de sus microes-
tados. Para sistemas de partículas que no interaccionan entre sí, tendremos que ca­
da una de las partículas estará en alguno de sus estados posibles y la descripción
del conjunto de partículas podrá hacerse, especificando una por una el estado de las
partículas del sistema. Alternativamente, para sistemas de partículas indistinguibles
especificando cuantas partículas del total N están el estado 1, cuantas en el 2, y así
sucesivamente hasta llegar al último accesible a las partículas del sistema, habremos
llevado a cabo la misma descripción. Así el estado v del sistema, estará completa­
mente especificado dando las lista de números v = ( n i , . . . , tij, ...). Obviamente,
Nv = 12j nj y E u = Y j ej nj son el número de partículas y la energía del estado v.
Existen dos clases de partículas. Unas, llamadas fermiones, pueden existir sola­
mente cada una en su estado (cuántico), y las otras, llamadas bosones pueden existir
tantas como queramos en cualquier estado (cuántico). Esto es, los números de ocu­
pación de los estados j son 0 o 1 para los fermiones y cualquier número entero, menor
o igual que el número total de partículas, para los bosones.

1.8.4.1 El gas de fotones


El gas de fotones es esencialmente un campo electromagnético en equilibrio térmico
con su contenedor. La teoría cuántica nos enseña que el operador hamiltoniano de
este sistema se puede escribir como una suma de términos, cada uno de ellos con la
forma de un oscilador hamónico. La energía de un oscilador armónico es vñujj con
v = (0 ,1 ,2 ,. ..) , si omitimos la energía del punto cero. Esto nos ha conducido hasta
el concepto de fotones de energía Twj. Por tanto, ahora deberemos declarar cuantos
fotones, rij, tienen energía u>j Los fotones son bosones, por tanto, la única restricción
al número de fotones de cada estado es el número total de fotones del sistema. Por
tanto la función de partición canónica sera,
OO

e-PA = Q =
V 711,...=0

= %í ( r d = s 7) (U13)
El valor promedio del número de partículas del estado j , esto es su ocupación prome­
dio, será,
, - S -n je -g S . aing

y haciendo uso de la ecuación (1.113) tenemos,


__ l_
<n¿> = tír 7— r (L115)

69 Índice
Capítulo 1

Este ecuación es la función de distribución de Plank para los fotones.

1 .8.4.2 Gasdefonones

Las fluctuaciones de las posiciones de los átomos de un sólido a temperaturas bajas,


constituye un ejemplo de gas de fonones. Sea n a el número de fonones con energía
hüüa . Por consiguiente la energía del estado v del gas es, E v — n a ^ a + E 0,
donde, E 0 = J2a=i ^ a / 2 es la energía del punto cero.
La función de partición canónica es,
oo / oo \
q (P, n , v ) = ^ e- P Y ,A ì+ n°‘)h“« = n a=1 e-P{\+ n)r^a (L116)
ni,...=0 \7i=0 /
y por tanto,
In Q = -In - e- ^ / 2) ( 1 .H 7 )
a —1
La suma de la ecuación anterior se hace en la práctica mediante una integral, esto es,
roo , s
—ln Q = e~^A = / g(w) In ( e^ / 2 - e ^ ^ 2) dw (1.118)
•J0
donde la hemosintroducido la función g(w ) de forma que

, x, í num ero de estados con [ .. „ „ ...


g(w ) w | fre cu e n c ia entre lü y uü duj J ^ ^
La ecuación (1.118) es el punto de partida para el análisis termodinàmico de las
frecuencias armónicas de los sólidos.

1.8.4.3 Bosones

Consideremos un sistema de N bosones que no interaccionan entre si. Si contraria­


mente, a lo que hemos hecho con los fotones y fonones, imponemos que el sistema
este compuesto de partículas que ni se crean ni se destruyen, la función de partición
canónica será,
Q= e- P T .jni ei ( 1 .1 2 0 )
n i , n 2)...
v----- v----- /
tales que, ^ ^. rij=N

La restricción en el sumatorio conduce a un problema combinatorial de difícil solu­


ción en general. Sin embargo, empleando el conjunto grand-canónico la restricción
antes mencionada no aparece. Esto es,
e/3pV _ s _ ^ 2 Q-PiEv-tiN) (1.121)
V
70 Índice
Capítulo 1

donde v denota un estado con N u = N partículas y energía E v. En términos de los


números de ocupación la ecuación anterior se transforma en,

S = £ = n,- ( J f r .. , ) ( 1 .1 2 2 )

La ocupación promedio del estado j es,

W =S <1123>
Observemos que cuando = /i el número de partículas, de ese estado diverge.
Esto es, todas las partículas se apilan en dicho estado cuya energía es igual al poten­
cial químico. Este es el fenómeno conocido como condensación de Bose.

1.8.4.4 Fermiones

La función de partición grand-canónica para un sistema de fermiones es,

“ ~ ^ donde, rij G {0 , 1 }
ni,ri2 ,—= 0

= 11, í J 2 e -P te -r t j = n j ( l + (1.124)
\ nj = 0 /

o bien
PpV = InH = £ ) l n ( l + (1.125)
3

El número de ocupación promedio del estado j , sera,


A -
i r—n -
|

(flj) = 777 --- —r = —¿7----- ñ----- (1.126)


' 31 d(-(3€j) + 1 v ’

1.8.4.5 Electrones en Metales

Consideremos las propiedades térmicas de los electrones de conducción de los met­


ales. Cuando la densidad de dichos electrones es suficiente, se pueden modelizar
mediante un gas de fermiones. Observemos que cuando la densidad es suficiente, el
potencial de interacción entre los electrones es de escasa importancia, ya que como
no pueden existir dos fermiones en el mismo estado cuántico, a densidades elevadas
se ocuparan muchos estados cuánticos. La energía de estado más bajo no ocupado
tendrá una energía cinética muy superior a &bT. Ahora bien, la excitación a estos
estados con energía cinética alta es la que produce las fluctuaciones asociadas con las

71 Índice
Capítulo 1

propiedades termodinámicas. Esto es, la energía de interacción entre las partículas se


hace irrelevante.
El número de ocupación promedio del estado j esta dado por la ecuación (1.126).
Esto es (rij) = F [e¿] = 1/ + l ) donde la energía del estado j , la aproxi­
maremos mediante la fórmula de la energía de electrón libre, ej = h 2 k 2 / 2 m , siendo
k = ('k/L )(xtix + yriy + z n z) el momento lineal del electrón, n a=x,y,z = 0 , 1 , 2 . ..
números cuánticos y L = y 1/ 3, donde V es el volumen del sistema. Teniendo en
cuenta que hay dos electrones por cada estado orbital especificado mediante j , a
saber, por cada estado orbital tenemos dos estados de spin, el número total de elec­
trones, N = Yl j (nj) podra expresarse como,

Para T = 0, la función F [e (&)] es simplemente una función escalón en e = /¿i?,


donde ¡ip = h 2 k p/ 2m. Por tanto el momento de Fermi, p p , es simplemente la en­
ergía del electrón en el último orbital ocupado. Con esto la ecuación anterior conduce
a

{N ) = (L 1 2 8 )

o bien que el momento de Fermi es proporcional a la raiz cúbica de la densidad de


electrones de la banda de conducción p = { N ) / V , eso es: kp = (37 r2p )1^3.

1.8.5 Método de Monte Cario

La simulación es una técnica que ha adquirido gran importancia en las últimas dé­
cadas. La idea básica es que con un computador uno puede seguir explícitamente las
trayectorias de un sistema con ^ 1 0 4 grados de libertad. Si el sistema se construye
de manera apropiada, entonces puede servir para simular el comportamiento de un
sistema real, al cual representa, y el análsis estadístico de las trayectorias predecirá
las propiedades del sistema.
Hay dos clases de métodos de simulación. Uno, llamado dinámica molecular,
calcula las trayectorias resolviendo las ecuaciones de movimiento de Newton para
el conjunto de partículas. Este procedimiento proporciona información dinámica
además de información acerca del estado de equilibrio. El otro, llamado método
de Monte Cario, es más general, pero no proporciona de una manera explícita in­
formación dinámica acerca del sistema. Sin embargo, puede extenderse a sistemas
cuánticos mucho más fácilmente que el anterior y además puede aplicarse a prob­
lemas reticulares de una forma natural. En este capítulo daremos una descripción
somera del método de Monte Cario.

72 Índice
Capítulo 1

1.8.5.1 Propiedades promedio

La ecuación (1.89) nos dice que para calcular el promedio sobre el colectivo de la
propiedad G, tenemos que saber dos cosas: (i) el valor esperado de G en los estados
v y (ii) la probabilidad de todos esos estados v. El método de Monte Cario, calcula
(G) de esta forma, pero en vez de extender la suma sobre todos los estados, lo hace
sobre una muestra representátiva, de forma que el promedio sobre esta muestra sea
igual que el promedio sobre el total. La generación de dicha muestra es pues, la tarea
crucial de método de Monte Cario.
Comenzemos por definir una trayectoria como una secuencia ordenada de con­
figuraciones o estados del sistema. Pensemos en una disposición lineal de N molécu­
las, fijas en sus posiciones y que pueden estar, cada una de ellas en uno de los estados
de spin accesibles propios de la molécula. La lista v = (si, 5 2 , . . . , sp¡) que dice el
estado de spin de todas y cada una de las N moléculas, especifica uno de los estados
(configuraciones) del sistema. Un paso en este espacio significa variar alguno o var­
ios de los estados de spin sj para generar una nueva configuración. Pues bien, una
secuencia ordenada de dichos cambios es una trayectoria. Sea T una trayectoria de
T pasos, el valor promedio de G sobre la trayectoria T será,

1 T
(G)T = - ^ G y(í) (1.129)
t= 1

donde v (t ) denota la configuración después de t pasos a lo largo de la trayectoria


T. Observemos que el resultado exacto lo lograremos con una sola trayectoria de
T —» 0 0 pasos o bien con infinitas trayectorias diferentes T de un solo paso. En la
práctica el modus operandi es emplear un conjunto finito de trayectorias de número
de pasos finito.

1.8.5.2 Trayectorias Monte Cario

Vamos a presentar el algoritmo de Monte Cario para la generación de trayectorias. Se


trata de un paseo aleatorio35 por el espacio de configuraciones del sistema. Se visitan
durante ese paseo, por tanto, un número de configuraciones representativas del sis­
tema con una frecuencia de visita representativa de las fluctuaciones del sistema. Esta
frecuencia es la probabilidad de cada una de esas configuraciones. Posteriormente se
calcula el valor esperado de la propiedad deseada en cada una de esas configuraciones
y se hace la suma ponderada en las probabilidades del valor de esa propiedad, para
obetener el valor promedio sobre la trayectoria. Finalmente, el valor promedio de
los valores obetnidos con varias trayectorias diferentes nos dará el el valor pormedio
sobre el colectivo de la propiedad en cuestión.

35Del ingles random walk


Índice
73
Capítulo 1

El algoritmo, que lo ilustraremos para el modelo del parrafo anterior, es co­


mo sigue. Elijamos una configuración inicial, z/, arbitrariamente. Ahora elijamos
aleatoriamente una de las moléculas y consideremos la configuración z/, obtenida
al cambiar el estado de spin de esa molécula. La diferencia de energía entre esas
dos configuraciones A E VV> = E ut — E y, gobernará la probabilidad relativa de las
configuraciones de forma que,

• Si A E uur < 0, aceptaremos la configuración v'

• Si A E vvi > 0, generemos un número aleatorio x E [0,1]

- Sie' > x ^ aceptaremos la configuración z/


- Si < x, recharazemos la configuración z/ y apuntaremos una
visita más a la configuración v.

Este es el llamado algoritmo de Metrópolis. Es importante recalcar que este algoritmo


proporciona un método para hacer promedios en el equilibrio. En efecto, definamos
una matriz de probabilidad de transición por unidad de tiempo, o w , entre las dos
configuraciones v y z/. Entonces la probabilidad por unidad de tiempo de que la
trayectoria este en la configuración v es,

Pl/ — ^ ^ [ bJw'Pv H” MjytjsPi/t] (1.130)


v'
Para el conjunto canónico p^ = 0 en el equilibrio, además sabemos que la proba­
bilidad relativa de las configuraciones v y v' es la exponencial del ratio de su en­
ergía relativa y la energía térmica de Boltzmann, = (3~l , esto es: pv/p vi =
exp (—f3AEuut), con lo cual de la ecuación (1.130) obtenemos que en el equilibrio,
A¿Vi/ = Pv/Pv' = exp (—(3AEjyUf). En el algoritmo de Metrópolis tenemos que,
la probabilidad de aceptar la nueva configuración es la unidad, si esta tiene menor
energía que la de partida y en caso contrario la probabilidad de aceptar la nueva con­
figuración es exponencial. Asi pues el algoritmo de Metrópolis genera trayectorias
cuyas configuraciones responden a la distribución canónica de Boltzmann.

1.8.5.3 La estrategia Monte Cario

Supongamos el caso más simple, aquel en que todas las configuraciones tienen la
misma probabilidad. En este caso el método de Monte Cario implica al final evaluar
un sumatorio de la forma,

/ = (L131)
i —1

donde, obviamente 1¡ N representa la probabilidad asociada a f ( x t). La forma de


calcular (1.131) es, por tanto, evaluar / en ■
N puntos x l elejidos aleatoriamente. Esto
Índice
74
Capítulo 1

es, generamos una trayectoria de N pasos que va desde el menor X{ hasta el mayor x¿.
La forma de generar esta trayectoria es mediante un generador de números aleatorios
(random). Existen rutinas (normalmente llamadas RAN) que generan estos números
aleatorios y en general todos los compiladores de FORTRAN traen el suyo. Sin
embargo, cito textualmente:36 "If all scientific papers whose results are in doubt
because o f bad RANs were to disappear from library shelves, there would be a gap
o f each shelf as big as a your fist. Por tanto, hay que ser cuidadoso con el empleo de
esas rutinas.
El método de Monte Cario, a diferencia de la ecuación (1.131), se basa en que
no todas las configuraciones tienen la misma probabilidad. Esto es, dicha probabil­
idad responde a una distrubución de Boltzmann. Veamos como podemos generar
trayectorias tales que la distubución de sus configuraciones responda a una distribu­
ción deseada w(x). Consideremos la función oj (x ), normalizada a la unidad en el
intervalo de la variable x que nos interesa. Hagamos el cambio de variable x —» y
siguiente,
(1.132)

y pensemos en la suma (1.131) como si de la evaluación númerica de la integral de /


se tratase. Con todo ello (1.131) se convierte en,

(1.133)

donde la variable de integración x(y) se calcula de la siguiente forma. Primero se


elije y aleatoriamente y despues se obtine x de la ecuación (1.132) simplemente in-
virtiendola, esto es de y(x) obetenemos x(y). Por tanto, si deseo evaluar la integral
de g(x) en el intervalo [0 , oo) asignando a cada x una probabilidad, por ejemplo,
exp (—x), debere generar trayectorias de valores de x entre 0 y oo de forma que los
puntos esten distribuidos de acuerdo a la distruibución w(x) = exp (—x) y simple­
mente sumar los valores de g evaluados en esos puntos. El siguiente codigo realiza
esas tareas.

double precision seed


data seed /98347927/
g(x)=x**2
print*,' Escribe N'
read(*,*)n
sum=0.
do i=l,n
x = - l o g (1.- ran(seed))
sum=sum+g(x)
36Numerical Recipies, Pag. 193
Índice
75
Capítulo 1

e n d do
g a v e = s u m /n
p r i n t * , ' I n t e g r a l = ' , gave
end
re a l function ran(dseed)
C D e v u e lv e un n u m ero ra n d o m u n ifo r m e m e n te d i s t r i b u i d o en­
tre 0 y 1 .
d o u b le p r e c i s i ó n d s e e d
d o u b le p r e c i s i ó n d 2 p 3 1 m ,d 2 p 3 1
d a ta d2p31m/2147483647.dO/
d a t a d 2p31 / 2 1 4 7 4 8 3 7 1 1 . d O /
dseed=mod(16807.d0*dseed,d2p31m )
ra n = d s e e d /d 2 p 3 1
retu rn
end

Si guardamos los puntos x generados en el d o y hacemos el histograma correspon­


diente el resultado es el representado en la Figura (1.8.5.3). Es claro que dichos
puntos tienen una distribución que responde a la w ( x ) elejida. Pero si bien en este

Figura 1.3: Histograma de la distribución exp(—x)

caso hemos sido capaces de invertir la ecuación (1.132) con w(x) = exp (—x) para
obtener x = —ln ( 1 —y), en general en muy difícil, cuando no imposible, obtener
la solución de la ecuación (1.132) analiticamente. El algortimo de Metrópolis es una
alternativa a este dilema, ya que genera de una manera sencilla trayectorias que re­
sponden a la distribución que se emplea para discriminar la aceptación de las nuevas
configuraciones generadas. Esto es, en la formulación anterior (ver sección 1.8.5.2)
de este método las trayectorias responderán a la distibución ex p (—/?AE vv>). En
otras palabras, a la distribución de equilibrio.
Índice
76
Capítulo 1

1.8.5.4 Umbrella sampling

Supongamos ahora que estamos interesados en obtener valores de propiedades del


sistema en situaciones alejadas del equilibrio. El método de Monte Cario descrito
anteriormente es claramente inadecuado, ya que las configuraciones pertenecientes
a las trayectorias que genera tienen una distribución de equilibrio. Sin embargo,
supongamos que la energía del sistema esta separada una cantidad A E v de la energía
E° del sistema en equilibrio. Esto es, la función de partición del sistema fuera del
equilibrio será,
lo
'u
Q Q o { e ~ ^ ) o ( 1.134)

donde,
(1.135)

representa el valor promedio de la magnitud e~^AEl/ calculado en el equilibrio y por


tanto calculable con el método de Monte Cario. Con lo cual tenemos un procedimien­
to para estimar la función de partición en una situación alejada del equilibrio. De la
misma forma, el valor promedio de cualquier propiedad G se podra evaluar mediente,

< G>
Q
Qo E„ G y e - ^ e - ^

Q Qo
Estas ecuaciones son la base del procedimiento llamado umbrella sampling, en la
cual se emplean trayectorias de Monte Cario para calcular promedios de magnitudes
en situaciones alejadas del equilibrio.
Este procedimiento se emplea frecuentemente para evaluar propiedades promedio
a lo largo de todo el camino de reacción. Es claro que solo los reactivos y produc­
tos reponden a situaciones en las cuales las configuraciones de las trayectorias que
vayamos a empelar para el cálculo de las propiedades promedio tendrán una distibu-
ción de equilibrio. Todos los demas puntos de la coordenada de reacción tendrán
configuraciones con una distribución que no necesariamente responderá a la de equi­
librio y por lo tanto su cálculo deberá llevarse a cabo mediante la ecuación (1.136).

Bibliografía
A R F K E N , G. (1985): Mathematical Methods for Physicists, London, Academic Press.
A TK IN S, P.W. y R.S. FRIED M A N (1997): Molecular Quantum Medíanles, 3a Ed.,
Oxford, Oxford University Press.
AVERY, J. (1976): Creation and Annihilation Operators, London, McGraw-Hill.
Índice
77
Capítulo 1

BERBERIAN, S.K. (1977): Introducción al Espacio de Hilbert, Barcelona, Teide.


CALLEN, H.B. (1960): Thermodynamics, New York, John Wiley.
C h a n d l e r , D. (1986): Introduction to Modern Statistical Mechanics, London, Ox­
ford University Press.
C o h e n - T a n n o u d j i , C ., B. Diu y F. L a l o e (1977): Mécanique Quantique, Vol.
I y II, Paris, Hermann.
CONDON, E.U. y G.H. S h o r t l e y (1957): Theory o f Atomic Spectra, New York,
Cambridge University Press.
D lR A C , P. A.M. (1958): The Principles o f Quantum Mechanics, 4a Ed., Oxford,
Clarendon Press.
JAIN, S. (1992): Monte Carlo Simulation o f Disordered Systems, Singapore, World
Scientific.
M ARGENAU, H. y G.M. MURPHY (1956): The Mathematics o f Physics and Chem­
istry, Princeton, Van Nostrand.
H A N N A, M.W. (1985): Mecánica Cuántica para Químicos, México, Fondo Educa­
tivo Interamericano.
M c W e e n y , R . y B.T. SUTCLIFFE (1969): Methods o f Molecular Quantum Me­
chanics, London, Academic Press.
LANDAU, L.D. y E.M . L i f s h i t z (1972): Mecánica Cuántica (Teoría no-Relativista),
Barcelona, Reverté S.A.
L e v i n e , I.N. (1991): Quantum Chemistry, 4a Ed., Englewood Cliffs, Prentice-Hall
International, Inc.
LlNDGREN, I. y J. MORRISON (1986): AtomicMany-Body Theory, Berlin, Springer-
Verlag.
PAULING, L. y E.B. W i l s o n (1935): Introduction to Quantum Mechanics, Tokio,
McGraw-Hill Kogakusha, Ltd.
PILAR, F.L. (1968): Elementary Quantum Chemistry, New York, McGraw-Hill.
PlPPARD, A.B. (1957): The Elements o f Classical Thermodynamics, London, Cam­
bridge University Press.
P r e s s , W.H., B.P. F l a n n e r y , S.A. T e u k o l s k y y W .T . V e t t e r l i n g (1987):
Numerical Recipes, London, Cambridge University Press.
SIM ONS, J. y J. N i c h o l s (1997): Quantum Mechanics in Chemistry, N e w York,
Oxford University Press.
SZABO, A . y N .S . OSTLUND (1989): Modern Quantum Chemistry. Introduction to
Advanced Electronic Structure Theory, New York, McGraw-Hill.
TODA, M ., R. K u b o y N. S a i t o (1992): Statistical Physics I, Heidelberg, Spriger-
Verlag.
VESZPREMI, T. y N . F e h e r (1999): Quantum Chemistry. Fundamentals to Appli­
cations, New York, Kluwer Academic-Plenum Publishing.
V o n N e u m a n n , J. (1991): Fundamentos Matemáticos de la Mecánica Cuántica,
Madrid, C.S.I.C.

Índice
78
Capítulo 2. Métodos de la química cuántica
Rosa Caballol
Departamento de Química Física e Inorgánica, Universidad Rovira i Virgili, Pl. Imperial
Tarraco, 1, 43005 Tarragona.
M iquel Sola
Instituto de Química Computacional y Departamento de Química, Universidad de Girona,
Campus de Montilivi, 17071 Girona.

El objeto de la Química Cuántica es la interpretación y la predicción de la


estructura molecular y de la reactividad química a partir de la Mecánica Cuántica.
Para este fin ha tenido que desarrollar aproximaciones y tecnología que permitan
abordar cada vez con mayor exactitud cuantitativa sistemas de complejidad creciente.

En 1926, Schrödinger resolvió el átomo de hidrógeno. Las primeras aplicaciones


de la mecánica cuántica al estudio del enlace químico, con la teoría del enlace de
valencia y la teoría de orbitales moleculares, fueron casi inmediatas. En 1930, Hartree
y Fock propusieron el método del campo autoconsistente, SCF, punto de partida de
los cálculos ab initio actuales que, no obstante, no llegaría a ser operativo hasta la
introducción del método de las combinaciones lineales de orbitales atómicos, LCAO.
La introducción de una base, al transformar los enormes problemas numéricos en
problemas de álgebra lineal, abrió las puertas a todo tipo de sistemas, sólo limitados
por las disponibilidades técnicas de almacenaje de datos y de rapidez de los
algoritmos para resolver ecuaciones algebraicas. En lo que se refiere a esta
aproximación, durante el resto del siglo los esfuerzos se han concentrado en explotar
los revolucionarios cambios aportados por la informática: los años sesenta fueron el
reino de los métodos semiempíricos, que fueron luego perdiendo terreno al aumentar
la capacidad de cálculo de los ordenadores y al hacerse asequibles los cálculos ab
initio sin simplificaciones. Mediante los algoritmos llamados "directos" hoy son
posibles cálculos con miles de funciones de base.

El método SCF es insuficiente para describir correctamente los sistemas con


electrones desapareados, como los que implican rupturas de enlace. Otra de sus
limitaciones es de origen físico, al moverse los electrones en un campo medio que no
permite la correlación de sus movimientos. A medida que las posibilidades técnicas lo
fueron permitiendo, en los setenta, los métodos SCF multiconfiguracionales, MCSCF,
permitieron resolver el primer problema. Hoy, su utilización puede considerarse de
rutina. La segunda de las limitaciones supone la inclusión de la correlación
electrónica, lo que se ha ido generalizando de forma más lenta. Los denominados
métodos "post Hartree-Fock" pertenecen a tres categorías: los de Interacción de
Configuraciones (IC), los perturbativos y los de Coupled Cluster (CC).

Índice
79
Capítulo 2

Por otra parte, en 1964, Hohenberg y Kohn, al demostrar que para el estado
fundamental la energía depende únicamente de la densidad electrónica, sentaron la
base de la Teoría del Funcional de la Densidad (DFT). Las ecuaciones de Kohn y
Sham, un año más tarde, posibilitaron su aplicación práctica. En los últimos años las
aplicaciones de la DFT han crecido espectacularmente, ya que proporciona buenos
resultados a un coste reducido. Actualmente es el método más usado para el estudio
de los sistemas de gran tamaño.

El aumento creciente de la potencia de cálculo ha permitido la difusión de todos


estos métodos. Se han desarrollado numerosos algoritmos que permiten optimizar
geometrías y hallar estados de transición, o calcular propiedades. Son varias las
paquetes de programas accesibles hoy en el mercado que incluyen gran diversidad de
opciones de forma cómoda para el usuario. Por citar, entre otras, dos muy usadas
actualmente con campos de aplicación no estrictamente idénticos, hay que señalar el
paquete GAUSSIAN y el paquete MOLCAS. GAUSSIAN, indiscutiblemente el más
profusamente utilizado por contener multitud de opciones, fue desarrollado
inicialmente por el grupo de Pople. Las versiones actuales han contado con la
colaboración de un gran número de autores de diversos grupos. Aunque más
recientemente, MOLCAS, desarrollado por el grupo de Roos y otros autores, se ha ido
introduciendo, centrándose el mayor interés de su utilización en los sistemas que
requieran tratamientos de alto nivel de correlación como los estados excitados.

2.1. FU N CIO N ES PO LIEL ECTR Ó N ICA S

Dado un sistema de NAnúcleos y N electrones, el problema consiste en resolver


la ecuación de Schródinger:
H<P = Ed> (2.1)
donde el Hamiltoniano electrónico no relativista, en unidades atómicas, una vez
considerada la aproximación de Bom-Oppenheimer, puede condensarse en:
„ . i
(2 .2 )
H - - 21 h' + 2» 2J>» rAij
con h a - EA , (2.3)

y (2.4)
A B>A *AB

para la configuración nuclear definida. Para simplificar la notación, eliminaremos


de ahora en adelante el subíndice. La función de onda electrónica y la energía del
sistema dependen explícitamente de las coordenadas de los electrones y
paramétricamente de las coordenadas nucleares.

Índice
80
Capítulo 2

2.1.1. Orbitales, determinantes de Slater

Dado que la ecuación de Schrödinger para un sistema polielectrónico no tiene


solución exacta, se construyen funciones polielectrónicas aproximadas. Una forma
usual es construir la función de onda como un producto de funciones
monoelectrónicas. Dado que el espín es una propiedad relativista, en el tratamiento
no relativista se impone una coordenada de espín como una cuarta coordenada del
electrón. Las funciones monoelectrónicas correspondientes, una vez se tiene en
cuenta el espín, son los espinorbitales, productos de la parte espacial y de la
función de espín:
X ¡(x i ) = <P¡Oi)ct(cüi ) = <P¡ o X i ( x ,) = <P¡Oi)ß(cü!) = ^ ¡ , con Xj = {r,, } (2.5)

El cumplimiento del principio de Pauli obliga a que la función sea antisimétrica


respecto a la permutación de las coordenadas de dos electrones, y el producto ha de
ser antisimetrizado, convirtiéndose en un determinante de Slater, que
simbolizaremos por:
W(x1 ,x 2 ,...,xN) = |x¡(l)xj(2)...xk(N)) (2.6)
o, desarrollado:

’P(x 1 ,x 2 ,...,xN) = (N !)- 1 / 2 2 ( - l ) PqP q{5Ci(Xi)Xj(x2 )-Xk(xN)} (2-7)


q=l

donde p q es un operador de permutación, pq es el número de permutaciones hasta


llegar al orden de referencia y la suma se extiende a las N! permutaciones posibles.

El primer paso es pues tomar un conjunto de espinorbitales para construir


determinantes de Slater. Aunque no es estrictamente necesario, es mucho más
cómodo elegir orbitales espaciales ortonormales, así que supondremos a partir de
ahora que las funciones monoelectrónicas cumplen esta propiedad:

f (PÍ (r)cPj(r)dr = öij, queimplica (x)Xj(x)dx = (x¡ |x¡) = 6 ¡j(2.8)


Las reglas que se deriven estarán pues sujetas a esta restricción. Aunque este
enfoque es con mucho el más frecuente, hay que señalar no obstante que puede
hacerse un tratamiento análogo al que seguirá sin esta restricción, aunque con
complejidad notablemente superior.

Así, la forma más simple de construir una función polielectrónica aproximada


que esté de acuerdo con el principio de antisimetría es construirla mediante un
determinante de Slater. En ello consiste la aproximación de Hartree-Fock. Se
escoge un conjunto de funciones monoelectrónicas, dependientes de algún
parámetro, se construye el determinante, se expresa el valor esperado de la energía,
y se aplica el método variacional. De esta forma se encuentra el conjunto de
parámetros que da el valor mínimo a la energía y por tanto la mejor función de
onda dentro de esta aproximación, que se denomina también monoelectrónica.
Volveremos con más detalle sobre ella.
Índice
81
Capítulo 2

2.1.2. Forma exacta de la función de onda. Interacción de Configuraciones

Un razonamiento algebraico conduce a una forma general más correcta para una
función aproximada. Supongamos que tenemos un conjunto completo de funciones
monoelectrónicas, que podemos por tanto tomar como conjunto de base. Cualquier
función de un solo electrón puede expandirse de forma exacta mediante la base:
<E>(xI) = J a ¡X¡(Xl) (2.9)
1'
donde { aj sonlos coeficientes de la combinación lineal. Supongamos ahora una
función de dos electrones, de momento con la segunda coordenada fijada, x2.
Podremos expresar la función:
3>(X1>x2) = 2 a¡(x2 )x¡ (Xi) = 2 büXj (x2)Xi .(*1 ) (2.10)
i y
La aplicación del principio de antisimetría convierte la expansión anterior en una
combinación lineal de determinantes:

<J>(xi»x2) = 2 bylXiXj) (2‘n )


1< J

Generalizando el razonamiento, puede llegarse a la conclusión de que una


función polielectrónica puede expandirse exactamente en función de todos los
detérminantes construidos a partir de N funciones monoelectrónicas:
<í> = ^ c IW, (2 . 1 2 )

Si la base inicial es completa, la expansión es exacta. Naturalmente, el problema


estriba en la elección de dicho conjunto de base, y la función de onda y la energía
son dependientes de ella. Cuando se utiliza la expansión completa se habla de
función de onda "exacta", aunque la solución dependa del conjunto de orbitales
escogido.

En resumen, si existe unabase completapara describir lasfunciones de un


electrón, podremos expandir deforma exacta lafunción de ondaelectrónica del
sistema como una combinación lineal de todos los determinantes construidos
mediante dicha base, y habremos transformado el problema de la resolución de la
ecuación deSchródinger de un sistema polielectrónico en unproblema de álgebra
lineal, en el que laresolución consistirá en resolver laecuación devalores y
vectores propios:
He= Ec (2.13)
donde H es la representación matricial del operador Hamiltoniano en la base de los
determinantes, E el valor propio, es decir la energía electrónica del sistema, y c el
vector de coeficientes de la expansión. Esta ecuación tiene otras soluciones que de
forma general pueden expresarse en la ecuación:
HC = CE (2.14)

Índice
82
Capítulo 2

La matriz diagonal E contiene los valores propios {E}, y C es la matriz constituida


por las columnas {c}. Este procedimiento se conoce como Interacción de
Configuraciones, CI.

Así pues, para hallar la solución (o soluciones) será necesario conocer la


expresión de los elementos de la representación matricial del Hamiltoniano en la
base de los determinantes, tanto en el caso en que se utilice la expansión completa
(función de onda exacta o Full CI, FCI) o, dado el elevado número de
determinantes, una expansión truncada. Las reglas de Slater-Condon proporcionan
las expresiones de los elementos de matriz, para conjuntos ortonormalizados de
orbitales.

2.1.3. Reglas para obtener los elementos de matriz

Los elementos de la representación matricial, Hmn, se definen como:


Hmn =<Wm| H l ^ n) (2.15)
Las reglas de Slater-Condon se basan en el carácter bielectrónico del Hamiltoniano.
Para dar expresiones generales, que no dependan de cada pareja de determinantes
en particular, se analizan las diferencias entre los dos determinantes escritos con el
criterio de "máxima coincidencia'’, es decir, una vez se han hecho todas las
permutaciones necesarias para que las diferencias no se deban a ellas sino a
distintos orbitales. Utilizando una expresión desarrollada de ambos, es fácil
demostrar la ortogonalidad de los determinantes y evaluar el valor esperado de la
energía para un determinante, es decir un elemento diagonal de H:
Hmm =(Wm|H|Wm) = f (a|h|a) + l / 2 | ; § (ab|(ab) (2.16)
a a b

donde las sumas se extienden a los espinorbitales del determinante. El operador


monoelectrónico h comprende la energía cinética y las atracciones nucleares para
un electrón. De forma general, utilizaremos las notaciones (i|h|j) para las
integrales monoelectrónicas y (ij|kl) para las repulsiones bielectrónicas:

(i | h | j) = J x l (l)h(l)5Cj (l)dXl (2.17)

(ij|kl) = J f/J (l)x; ( 2 ) — x k(1 )>C, ( 2 )dx,dx 2 (2.18)


ri2
La abreviación (ij||kl) representa la diferencia (ij|kl) -^ij|lk).

Es importante analizar los dos tipos de integrales bielectrónicas que aparecen en


la expresión de la energía. Las primeras, del tipo(ab|ab), son las integrales de
Coulomb, que corresponden a la repulsión entre las distribuciones de carga del

Índice
83
Capítulo 2

electrón 1, X¡(l)Xa(l)> y del electrón 2, Xb(2)Xb(2)> y que se interpretan como la


repulsión electrostática clásica. Una vez integradas respecto al espín, se utiliza
también la notación J^. Las otras, del tipo(ab|ba), no tienen equivalente clásico
pues tienen su origen en el principio de antisimetría y se denominan integrales de
intercambio, que, una vez integradas respecto al espín, se indican como Kab. Estas
integrales sólo son distintas de cero entre espinorbitales de mismo espín.

De la misma forma, pueden deducirse todas las reglas, según el número de


diferencias entre los dos determinantes implicados. Dado el carácter bielectrónico
del hamiltoniano, los elementos de matriz entre determinantes con más de dos
espinorbitales diferentes serán nulos. Una deducción alternativa de estas reglas
puede hacerse igualmente utilizando la expresión del Hamiltoniano en segunda
cuantización:

tí ¡,ÍXi
É = I ( i lh| j ' K aj + 1 /2 2 ^ ^ ( y l w ) (2.19)

y las propiedades de conmutación de los operadores de creación, a+, y de


aniquilación, a.

Reglas de Slater-Condon

número de diferencias término monoelectrónico término bielectrónico

N N

0 2<a|h|a) l/22Y(ab||ab)-
a a o

1 a^ r <alhlr) £(abH
' 2IZl 0 <abH
>2 0 0

Las reglas de Slater-Condon permiten construir la representación matricial del


Hamiltoniano en la base de los determinantes. Diagonalizando esta matriz, se
encuentra el valor de la energía y la composición de la función de onda en esta
base, para el o los estados deseados. Pero previamente es necesario haber escogido
una base de funciones monoelectrónicas que permita construirlos. Una solución
adecuada es adoptar como conjunto de base los orbitales obtenidos mediante el
método de Hartree-Fock, que consiste en utilizar como función de prueba un solo
determinante.

Índice
Capítulo 2

2.1.4. Configuraciones adaptadas de espín. Funciones restringidas y no


restringidas
A Am
Al conmutar el operador Hamiltoniano con los operadores de espín, Sz y S , la
función de onda exacta es función propia de ambos. No obstante, los determinantes
A A ^

de Slater no son necesariamente funciones propias de S . Dado un sistema, una


solución frecuente para construir los determinantes es la denominada restringida,
que autoriza dos orbitales espaciales idénticos, con diferente parte de espín, y por
tanto el ’’apareamiento" de los electrones:
(P i(r )^X ¡( x) = (p¡(r)a(co) = (p¡ y X¡+i (x) = cp¡ (r)p(co) = (2.20)

En general, en los sistemas de capa abierta, es decir los que tienen electrones
desapareados, un solo determinante restringido no suele ser función propia de S2 y
es necesario generar combinaciones lineales adaptadas de espín. Una solución
alternativa es no adoptar esta restricción y utilizar la forma no restringida, en la
que no coinciden las partes espaciales para los espinorbitales a o p:
‘P r(r)-X i(x ) = cpr(rMí0) = cpr y q>j(r)-*Xj(x) = q^(r)p(w) = 9? (2.21)
La ortogonalidad de los espinorbitales de distinto espín se garantiza por la
ortogonalidad de la parte de espín, ya que los orbitales espaciales a y p no suelen
ser ortogonales: ^cp“ tp^ = S“|! * 0 . Estos determinantes no son función propia de
S2y el valor esperado correspondiente depende de cuánto se alejen de la
ortogonalidad las dos series de orbitales espaciales.

2.2. E L M ÉTO DO D E H A R TR EE -FO C K

La aproximación de Hartree-Fock, que es equivalente a la aproximación orbital,


es crucial en química cuántica no sólo porque proporciona una descripción simple,
muy asumida por los químicos, de electrones ocupando orbitales sino porque
constituye un punto de partida para cualquier tratamiento "post Hartree-Fock" de la
correlación electrónica: Interacción de Configuraciones, Teoría de Perturbaciones o
Coupled Cluster. Aunque en algunos métodos se utilicen puntos de partida
distintos, no es lo más habitual. Veamos cómo se derivan las ecuaciones de este
método.

2.2.1. Las ecuaciones de Hartree-Fock

Como ya hemos indicado, la aproximación de este método consiste en truncar la


expansión de la función de onda como combinación lineal de determinantes a un
solo término:

Índice
Capítulo 2

O «W 0 (2 .2 2 )
Ya hemos visto antes la expresión del valor esperado de la energíapara una
función deonda de este tipo, suponiendo el determinante normalizado:

E 0 - ( % | H | % ) = 2 ( a N a) + l / 2 Í Í ( a b ||a b ) (2.23)

2.2.1.1. Minimización de la energía. Teorema de Brillouin

La aplicación del método variacional nos conducirá a minimizar E0. Dado que
los espinorbitales constituyen una base ortogonal y que el operador es hermítico:
8 E0 = 2(8'F 0 |H|W 0) = 0 (2.24)

La variación 6W0 será producida por la variación de los espinorbitales que deben
mantenerse ortogonales. Dado que éstos constituyen una base ortonormalizada, la
variación del espinorbital %a puede expresarse en función de la base y para asegurar
la ortogonalidad, habrá que restringir la suma al subespacio complementario:
8 Xa = 2 C arXr = ^ C (2 '2 5 )
r r* a ,b ,...

lo que implica 8ipo = 2 2 Car'F ‘1 (2‘26)


a r^ aT o,...

Al sustituir en la expresión de la variación de la energía:


8 Eo = 2 2 2 c ar(^á|H |W o) = 0 (2.27)
a r

vemos que necesariamente han de ser nulas las i n t e g r a l e s | h | w o) . Estas


integrales en las que la notación indica que en el determinante W0 se ha
substituido %a por %r, describen la interacción entre el determinante WQque
describe el estado fundamental y las substituciones simples de un espinorbital por
otro del conjunto complementario (o monoexcitaciones) y el resultado anterior que
conlleva la condición de mínimo de la energía constituye un teorema importante, el
teorema de Brillouin, que puede enunciarse:

Las monoexcitaciones no interaccionan directamente


con la configuración fundamental

Precisemos que el; teorema sólo se cumple para la configuración que minimiza la
energía.

Índice
86
Capítulo 2

2.2.1.2. Operador de Fock. Ecuaciones de Hartree-Fock

Las reglas de Slater nos indican que la expresión de las integrales anteriores es:
( ^ | H |W 0) = (r|h |a) + |( r b ||a b )

-/x ;(l)h (l)X .(l)d x 1 + | / / x ; ( l ) x ; ( 2 )^ X a (l)X b( 2 )dx 1 dx 2

- i / J x ; (l)x ; (2 )^ X a (2)Xb (l)dxidx2 (2-28)

Si definimos el operador monoelectrónico de Fock,f , como:

f(l) = h(l) + | ( Í b( l ) - K b(l)) (2.29)

con los operadores de Coulomb, {J b } 3 potencial promedio generado sobre el


electrón 1 :
Jb( l) = /X ;( 2 ) - X b ( 2 ) d x 2 (2.30)
*12

y de intercambio, { Kb}, definido por su efecto cuando opera sobre un


espinorbitalXa:

Kb(l)X a (l)= fx ;(2 )— Xa(2)Xb(l)dx2 (2.31)


ri2
produciendo el intercambio entre los electrones 1 y 2. La expresión anterior se
convierte en el elemento fab de la representación matricial del operador de Fock en
la base de espinorbitales:
( ^ | H | ^ 0) = (r|h |a) + < r | í | ( J b - K b)||b ) = (r|f|a ) = f ra= 0 (2.32)

Puede demostrarse que si far = 0 , necesariamente x a Y Xr han de ser funciones


propias d ef , con lo que llegamos a las ecuaciones de Hartree-Fock:
fX a = £aXa>Va (2 -33)
donde j¡'a json los correspondientes valores propios, asignables a las energías
orbitales, como puede verse de la expresión anterior para los elementos de f . El
conjunto de espinorbitales j%a} son las funciones propias del operador de Fock y
constituyen su conjunto canónico. Por otra parte, una propiedad muy importante
que puede demostrarse es que una transformación unitaria de los orbitales mantiene
invariante la energía electrónica del sistema.

Índice
87
Capítulo 2

Analicemos brevemente la forma del operador de Fock. La parte que incluye


energía cinética y atracción nuclear es estrictamente monoelectrónica, pero los
operadores de Coulomb y de intercambio son operadores efectivos en los que se ha
promediado el campo de los electrones restantes que depende de los espinorbitales
correspondientes, es decir de la solución. En el procedimiento de resolución se
parte de un conjunto de prueba, se construyen los operadores, se resuelve la
ecuación de valores y funciones propias y se itera el proceso hasta la convergencia.
Por todo ello, el método de Hartree-Fock se denomina también del campo
autoconsistente.

Una consecuencia fácilmente demostrable a partir de las expresiones de la


energía electrónica y de las energías orbitales es el teorema de Koopmans que
puede resumirse de la siguiente forma:

Los valores propios cambiados de signo que corresponden a los


orbitales ocupados o virtuales pueden asociarse al potencial
de ionización o a la afinidad electrónica, respectivamente

Hasta aquí, hemos mantenido un planteamiento puramente formal. Para


sistemas de cierta complejidad la resolución de las ecuaciones resulta
numéricamente muy complejo. La expansión de los orbitales mediante la
combinación lineal de orbitales atómicos, LCAO, permite una resolución
algebraica mucho más cómoda, como veremos a continuación.

2.2.2. Aproximación LCAO. Ecuaciones de Roothaan

Las ecuaciones de Roothaan son la transcripción de las ecuaciones de Hartree-


Fock cuando se ha definido una base de orbitales atómicos para expandir los
orbitales espaciales cp¡:
«Pi = 2 cA - (2-34)
Antes de trasladar esta expresión a las ecuaciones de Hartree-Fock, es conveniente
fijar si adoptamos o no la restricción de espín. Para sistemas con número par de
electrones en su estado fundamental, la restricción es adecuada: se denomina al
método Restricted Hartree-Fock. Para sistemas con capas abiertas, podemos elegir
una u otra solución. Si mantenemos la restricción, el método se denomina Open
Shell Restricted Hartree-Fock, OSRHF, y sino Unrestricted Hartree-Fock, UHF.

2.2.2. 1 . Método Restricted Hartree-Fock

Veamos ahora las consecuencias de la introducción de una base cuando se


mantiene la restricción de espín según el tipo de sistema.

Índice
88
Capítulo 2

2.2.2.1.1. C a p a s cerradas, RHF

Las ecuaciones de Roothaan se expresan:


FCa = saSCa>Va (2.35)
o en la forma matricial compacta:
FC = SCE (2.36)
donde F es la representación matricial del operador de Fock en la base de los
orbitales atómicos, C el vector de los coeficientes de la expansión para el orbital
correspondiente y S la matriz del solapamiento que tiene en cuenta que, en general,
la base de orbitales atómicos no está ortonormalizada:
Svli = (<t>vl'tv) (2.37)
Los elementos de la matriz de Fock se expresan:
F . „ - ( 'k . |Í K . ) - H “ ,'+ 0 ¡,„ (2.38)
donde las matrices H“ "6 y G son las representaciones matriciales de las partes
mono- y bielectrónicas, respectivamente, del operador de Fock. Como los
operadores de Coulomb y de intercambio dependen de losorbitales, G depende de
los coeficientes y de las integrales bielectrónicas en la base atómica:
Gvtl= f ( P ,a,( [xv|X o)) (2.39)

N/2
donde P, a = 2 ^ CbxCbo son ^os elementos de la matriz densidad P, y ([iv |Xa) es

una integral bielectrónica en base atómica. La expresión de la energía electrónica


se convierte ahora en:

Eo = l / 2 2 I Pv ,(H“; e+ F v J (2-40)
V \l

La ventaja de la utilización de una base es evidente: todas las integrales


dependenúnicamente de los orbitales atómicos. Así puedencalcularseinicialmente
Hc°re ^ g y |([xv | Xcr)j. Luego se toma una matriz densidad de prueba, se construye
F , se resuelve la ecuación matricial y se itera hasta la convergencia de la energía
dentro de una precisión fijada.

La base de orbitales atómicos no suele ser ortogonal, por lo que hay que
efectuar una transformación, equivalente a ortogonalizar la base, para transformar
la ecuación (2.36) en una de valores y vectores propios. La transformación más
conocida es la transformación de Lowdin:
F = ST1/2FST1/2 (2.41)
y la resolución de la ecuación

Índice
89
Capítulo 2

F'C' = C'E (2.42)


se determina la matriz de los coeficientes
C = ST1/2C' (2.43)

Como se verá más adelante, una vez determinada la matriz densidad, se pueden
calcular muchas propiedades del sistema, y en particular efectuar un análisis de
densidad electrónica. El análisis de población de Mulliken, aunque representa una
partición grosera de la distribución electrónica, puede efectuarse fácilmente, ya que
se verifica:
N -^ P S S ^ -M P S ) (2.44)

La población orbital y la población atómica de Mulliken se definen como:


q, = (PS)w (2.45)
y qA=jx£A
2 (2-46)

2.2.2.1.2. Capas a b ie r t a s , OSRHF

La transcripción de las ecuaciones de Roothaan para sistemas de capas abiertas


manteniendo la restricción de espín es bastante más compleja pues la distinta
ocupación de los orbitales conduce a distintos operadores de Fock. No obstante, el
problema puede resolverse y existen diversos métodos para ello. De forma general,
se llega a una ecuación matricial formalmente idéntica a la de las capas cerradas:
RC = SCE (2.47)
donde R es un operador de acoplamiento obtenido a partir de los distintos
operadores de Fock. Hay que señalar que la definición de la matriz densidad en
este contexto es más general:
Noc

ho = 2 ° CbCt*Cba (2-48)
b

Noc es el número de orbitales ocupados, y {ocb}su ocupación, 1, 2, o en algunos


sistemas que por la elevada simetría tienen orbitales degenerados, un número
fraccionario. Hay que indicar también que la interpretación de los valores propios
como energías orbitales es menos clara para las capas abiertas.

22.2.2. Método Unrestricted Hartree-Fock

El método UHF por su parte conduce a dos series de ecuaciones:


, F“Ca = SC“Ea y FPCP = SCPEP (2.49)
con

Índice
90
Capítulo 2

Na *Np *
P,aa = 2 C c“a , P l = 2 4 4 y P = P“+Pp (2.50)
b b

que hay que resolver conjuntamente porque las dos matrices de Fock dependen de
la matriz densidad total, P. Al análisis de población puede añadirse en este caso el
de la densidad de espín:
p S = p a _ p fS

2.2.3. El problema de la disociación

El método RHF resulta inadecuado en algunos casos, en particular para estudiar


la disociación de los enlaces. En la molécula de hidrógeno, por ejemplo, puede
intuirse que obligar a los dos electrones a tener la misma distribución espacial
mientras se alarga la distancia de enlace cuando los fragmentos separados las
tendrán localizadas en regiones muy diferentes no puede ser un tratamiento
correcto. Analicemos las consecuencias un poco más de cerca.

Si utilizamos una base mínima para describir la molécula, la simetría Dooh nos
permite expresar los orbitales moleculares en función de los atómicos:
o g = l / V 2 ( S ^ ( s A + SB) y o u = 1 /-y/2(l- SAB) (sA - sB) (2.52)
La energía electrónica del sistema:

Eo - 2 H hh ) + , °.<>. a - 53)
El solapamiento SAB-* 0, para r -» y E0 se convierte en:

E 0 = ((sA + sB)|h |(sA + s B)) + l/4 ((s A + sB)(sA + sB)|(sA + sB)(sA + sB)) (2.54)
Para r oo, todas las integrales bicéntricas tienden a anularse, con lo cual:
^ 0 (^- 2 ) = 2(sa |h |sA) + l/2 ^ s AsA|sAsA) = 2E 0 (H) + l/2 ^ sAsA|sAsA^ , r —> 00 (2.55)
La energía de disociación de la molécula se sobrestima pues en l/2 ^ sAsA|sAsA) .

Para solventar este problema, hay dos soluciones. La primera es utilizar el


método UHF, que a través de una ruptura de simetría autoriza a los espinorbitales a
y |3 a tener distribuciones espaciales completamente diferentes, lo que permite una
disociación correcta. La segunda es utilizar una función construida como
combinación lineal de varios determinantes y optimizar a la vez los orbitales y los
coeficientes de la expansión: son los métodos multiconfiguracionales
autoconsistentes, MCSCF, entre los cuales los CASSCF (Complete Active Space
SCF), en los que el espacio multiconfiguracional está construido como el espacio
completo, es decir FCI, definido por algunos orbitales (orbitales activos) y un
número determinado de electrones, manteniendo la doble ocupación de los demás.
De hecho, estos métodos son los únicos adecuados cuando no existe una separación

Índice
91
Capítulo 2

energética clara entre orbitales ocupados y virtuales: la casi degeneración de los


orbitales implica un peso importante de otros determinantes en la función. Las
disociaciones homolíticas son un ejemplo de la insuficiencia del tratamiento RHF
monodeterminantal, pero hay otras situaciones igualmente problemáticas, como por
ejemplo los estados singulete de los carbenos, que precisan incluir la doble
excitación a 2-» n para una correcta descripción.

2.3. M ÉTO DO S PO ST H A R TR E E -FO C K PA R A DETER M IN A R LA


CO RRELACIÓ N E L EC TR Ó N IC A

El método SCF es insuficiente para describir correctamente muchos sistemas. Su


limitación es de origen físico, al moverse los electrones en un campo medio que no
permite la correlación de sus movimientos. Para corregirla, es necesario incluir la
correlación electrónica. Los denominados métodos "post Hartree-Fock" pertenecen a
tres categorías: los de Interacción de Configuraciones (IC), los perturbativos (MBPT)
y los de Coupled Cluster (CC).

Definimos la energía de correlación como la diferencia entre la energía exacta y la


energía Hartree-Fock:
Eco^Eexacta-Eo (2.56)
Suele entenderse que la energía exacta es la no relativista en la base considerada, es
decir la FCI. Los distintos métodos que comentaremos intentarán acercarse a la
estimación de este valor. De los tres, el de Interacción de Configuraciones es el único
método variacional, por tanto el único de los tres para el que conocemos el signo del
error que cometemos.

2.3.1. Interacción de Configuraciones

Este método es conceptualmente el más simple, pues se trata de hallar el o los


valores propios del sistema, una vez construida la representación matricial del
Hamiltoniano en la base de los determinantes. La estructura de la matriz, como ya
hemos visto mediante las reglas de Slater-Condon, puede esquematizarse:

Índice
92
Capítulo 2

'Po M D T C P ... <t>= c0W0+ cMM + cDD + ...


% E0 0 X 0 0 0 ... donde M, D... simbolizan los
conjuntos de simples, dobles
M 0 EMu x x 0 0 ...
excitaciones... Si se parte del
D X X ed X X 0 ... determinante Hartree-Fock, éste
T 0 X X Et X X no interacciona con las
monoexcitaciones. El diagrama
C 0 0 X X Ec X sólo especifica los bloques nulos
P 0 0 0 X X EP ... y los no nulos. Las reglas de
Slater-Condon nos indican que
entre bloques excitados, muchas
contribuciones dentro de los
bloques de interacción serán también nulas. Esta estructura puede aprovecharse
para utilizar técnicas numéricas adecuadas para determinar tanto la energía como la
composición de la función. Aunque en la práctica los programas suelen
proporcionar una función normalizada, es bastante útil para el análisis la
denominada normalización intermedia, en la que en lugar de(<í>|<í>) = 1 , se define:
(<D|%> = 1 (2.57)
El paso de una a otra una vez conocida la expansión es trivial.

Si en la ecuación (2.1) introducimos la energía de correlación (2.56):


( H - E 0)O = Ecorr<í> (2.58)
y utilizamos la normalización intermedia (2.57):
( ^ 0 | ( ñ - E 0 )|O ) = Ecorr (2.59)

se ve que su expresión es función únicamente de simples y dobles excitaciones:

<% \Ú \ E Ca |Wa ) + 2 C"bK b) = E “ " (2-60)


l a,r a<bTr<s

Esta expresión indica que las diexcitaciones tienen un peso predominante, siempre
que el coeficiente c0 del determinante fundamental sea grande. No obstante, esta
importante conclusión no autoriza a incluir solamente lasdiexcitaciones en la
función, ya que en lafunción exacta, los valores de los coeficientesdependen de
las interacciones con otras excitaciones.

2.3.1.1. Un ejemplo de FCI: la molécula de H 2 y su dímero en base mínima

Como hemos visto en el capítulo anterior, el estado fundamental de la molécula


de H2en la aproximación Hartree-Fock se describe mediante el determinante
% = |o g ó g ) (2.61)

con E 0 = 2 ( a g |h |a g) + (2.62)

Índice
93
Capítulo 2

y con a g = Ng(sA + s B) y a u = N u(sA - s B), donde Ng y Nu son los factores de


normalización. Las simetrías de espín y de espacio implican que sólo interaccionen
con Wq los determinantes compatibles con el estado *2 *, es decir: en este caso
solamente el determinante que implica la doble excitación del par de electrones del
orbital og al orbital o u, . Luego:
(2.63)
Los elementos de la representación matricial serán pues: las dos energías E0 y ED
como elementos diagonales y la integral de interacción entre ambos, que es igual a
la integral de intercambio: ^lF() |h ) = Kgu. Puede verse fácilmente que:

(2.64)
y cD - Kgu /(Ecorr - 2A) , con 2A —ED—E 0 (2.65)
La diferencia de energía entre las dos configuraciones es:
2A = ED - E0 = 2 ( a u |h |a u} - 2 (o g |h |a g) + - J0g0g (2.66)

Todas las integrales bielectrónicas tienden a l/2 ^ sAsA|sAsA)para r -> oo? con lo
que A -* 0 y Ecorr -»■ - l / 2 ( s AsA|sAsA) . Por tanto, E = E 0 + Ecorr = 2E(H) y puede
concluirse que la correlación restituye la energía correcta de los fragmentos.

Analicemos ahora el dímero constituido por dos moléculas de H2, sin


interacción. La separabilidad del sistema nos ha de conducir a <í> = 0>X<S}2 con
E = 2 E j. Vamos a verificar que la función FCI cumple esta condición, que se
conoce también como size-consistency. Para el dímero en su estado fundamental:
O = W0 -
(2.67)

Al tratarse se capas cerradas, W0 = W0i WÜ2 y E 0 = 2E0j. La representación


matricial del Hamiltoniano será pues:

-» E = 2E;
cDi - cÜ2 ;cc - cD]

Ecorr(2H2) = 2 (A -(A 2 + K^ )
\l/2 \
J = 2Ecorr(H2) (2.68)

Índice
94
Capítulo 2

Como era de esperar, la función FCI se comporta correctamente. No obstante, el


tamaño de los espacios aumenta tan rápidamente con la base (NH3 en base DZP,
más de 1 0 8 determinantes) que, inevitablemente, hay que recurrir a truncar la
expansión.

2.3.1.2. Interacción de Configuraciones truncada: pérdida de la separabilidad

Para truncar un espacio de IC pueden seguirse diversos criterios. El primero


consiste en truncarlo en función del grado de excitación. Así, se habla de la IC de
simples y dobles, SDCI. Otra posibilidad es seleccionar las excitaciones en función
de criterios físicos o en función de la contribución a la función de onda o a la
energía de correlación, estimada por lo general mediante un método perturbativo.
Se trata entonces de las ICs seleccionadas. Las diferencias entre ambas categorías
son de dos tipos:
i) en cuanto a la estructura de la representación matricial del Hamiltoniano, las
primeras tienen una estructura totalmente predecible, lo que permite algoritmos
de cálculo muy eficientes, mientras que las otras tienen una estructura más
aleatoria y precisan algoritmos en general menos eficaces.
ii) en cuanto a la calidad de los resultados, la selección mediante criterios físicos o
numéricos permite resultados mejores con dimensiones más ventajosas y
permite reducir el error de size-consistency ímplicito en cualquier IC truncada.

Veamos en el ejemplo anterior cómo desaparece la separabilidad al truncar la


IC. Si decidimos incluir sólo hasta excitaciones dobles en la expansión (2.67):
o DC' + c 2 w g + = vp0 + c ^ ^ D1 + c ^ v p D2 (2.69)

la representación matricial de H y la energía son ahora:

E0 Kgu Kgu ^
Kgu E 0 +2A 0 Edci = E 0 + A - ( A2 + 2KgU)’ /2 (2.70)
Kgu 0 E 0 +2A

Se ve pues que la separabilidad no se conserva al truncar la función en las


diexcitaciones. Generalizando la expresión anterior para n moléculas, se encuentra:

Eot? = A - ( a 2 + nK ^ )1/2 (2.71)

lo que implica que para n -> oo la energía de correlación por monómero tiende a
cero. De este simple ejemplo se concluye que la SDCI no se puede utilizar sin
grandes precauciones o corrigiendo de alguna forma el error de size-consistency.
Puede generalizarse el problema a todas las ICs truncadas a unnivel de excitación
dado. Existen algunas correcciones, con distinto nivel de sofisticación para
solventar este problema.

Índice
95
Capítulo 2

2.3.1.3. Correcciones

La más rudimentaria es la corrección de Davidson que está basada en criterios


perturbativos y que se añade a posteriori, una vez calculada la energía ESDCI. La
expresión de esta corrección es muy simple por lo que es muy usada:
^ corr = ^corr + Davidson ’ COn Davidson = ~ C0 )^ c o r r (2.72)

donde c0es el coeficiente de W0 en la <I>SDC1 normalizada.

Otras correcciones más sofisticadas son por ejemplo la denominada SC 2CI, self-
consistent size-consistent CI, que incorpora correcciones de forma autoconsistente
a los elementos diagonales de la matriz H, sea cual sea el tipo de selección o de
truncamiento. La técnica es naturalmente más cara, pero mucho más correcta, y
tiene la ventaja sobre otros métodos que aseguran una correcta separabilidad como
los métodos de Coupled Cluster de no apartarse de la resolución de un sistema de
ecuaciones lineales.

Otra alternativa es la llamada Quadratic CI, introducida por Pople: consiste en


incluir términos cuadráticos mediante productos de coeficientes de diexcitaciones,
y está más cerca de un tratamiento CCSD, aunque con algunos términos menos.

Hay que indicar por otra parte que la necesidad de recurrir a funciones de onda
multireferenciales subsiste cuando se añade la correlación electrónica: si el sistema
no está bien descrito a orden cero mediante un determinante, tampoco lo estará
mediante una función que parta de un solo determinante como referencia para
generar la función <J>SDCI. En estos casos, hay que recurrir a funciones <Í>SDCI
multireferenciales. Si por ejemplo la función de referencia ha de describirse
mediante el determinante fundamental y una doble excitación, la función MRSDCI
incluirá todas las diexcitaciones respecto al fundamental y respecto a la
diexcitación de la referencia. Incluirá pues cuadriexcitaciones. El problema formal
de la mala separabilidad subsiste en este caso y las correcciones antes indicadas
son igualmente aplicables.

2.3.2. Teoría de Perturbaciones

La Teoría de Perturbaciones (Many Body Perturbation Theory, MBPT) puede


aplicarse cuando el Hamiltoniano es separable en dos contribuciones: una, el
Hamiltoniano de orden cero, H0, del que se conocen valores y funciones propias, y
otra la perturbación, V , considerada pequeña frente a H0. La energía exacta y la
función se expresan como sumas infinitas de contribuciones que contienen la
energía o la función de orden cero y las sucesivas correcciones, expresadas
mediante potencias crecientes de V . Si la partición entre Hamiltoniano de orden
cero y perturbación es correcta, la serie de correcciones es convergente.
Índice
96
Capítulo 2

En su aplicación a la determinación de la energía de correlación, el desarrollo


más conocido de la Teoría de Perturbaciones es el de Rayleigh-Schrodinger, que
tiene la ventaja de tener un comportamiento size-consistent para cada orden.
Veremos a continuación el tratamiento monoreferencial.

2.3.2.1. Hamiltoniano de orden cero y perturbación en la correlación electrónica

Se efectúa la partición del Hamiltoniano del sistema:


H = H0 + V (2.73)

donde H 0 es un Hamiltoniano aproximado de soluciones conocidas:


H 0 1<D(k0)) = E f 13>(k0)), Vk (2.74)
En elproblema quenos interesa de la correlación electrónica, si se conoce la
soluciónHartree-Fock, una partición posible es considerar que elHamiltoniano
aproximado es la suma de los operadores monoelectrónicos de Fock:
H0 = J f ( i) (2.75)
I
lo que conduce a la expresión del operador perturbación:
V = H - J f ( i ) = 2 l / r ij- 2 v ( i ) (2.76)
1 J>1 1

con f (1) = h(l) + v(l) (2.77)

Las solucionesde orden cero serán los determinantesconstruidos a partir del


conjunto deorbitales,ocupados y virtuales, deHartree-Fock, y las energías, la
suma de las energías monoelectrónicas correspondientes. Así, si el estado i es el
fundamental, las funciones de orden cero:
I ^ H 'í 'o ) (2-78)

Y K 0)) = 1 ^ ) , es decir: | ^ ) , | ^ sb) , | ^ c),...d o n d e |^ k) = |XpXq- ) (2-79)


y las energías:
Eí0) = 2 ea (2.80)
a
y E f - 2P £p P-8i)
Aunque en un tratamiento monoreferencial como el que seguiremos no vamos a
considerar más que un estado, denominaremos espacio de referencia al constituido
por los estados de orden cero de nuestro interés. En nuestro caso, contendrá un solo
elemento, . El resto de estados constituyen el espacio complementario.

Índice
97
Capítulo 2

2.3.2.2. Correcciones a la energía y a la función

Para el estado i, la ecuación de Schrödinger se expresa:


.. (2.82)
La función y la energía exactas se expanden:
|a>.^ = |o [ 0)) + |a>P)) + |<Dp)) + ... (2.83)
y E¡ = E | 0) +E [1) + E p) +... (2.84)

Operando sobre la ecuación exacta, se llega a la expresión:


(E|0) - H 0 ) I<E>¡) = (V + E[0) -E O jO i) (2.85)

La utilización de la normalización intermedia, | <J>¡ ) = 1, conduce a que las


correcciones de orden superior son ortogonales a la de orden cero:
(2.86)

Para el desarrollo, se definen los proyectores sobre el espacio de referencia y


sobre el espacio complementario, P y Q :
P = |o [ 0)) ( o | 0) |,P|<D¡) = | o | 0)) y Q = P - l = 2|<Dj°)^<I>(0)| (2.87)
J*1
Operando, se llega a la expresión:
Q |O ¡) = ( E W - H 0 )- 1 Q(V + E '° ) - E i)|<Di) (2.88)
que permite obtener de forma recurrente las distintas correcciones y expresar la
ftmción exacta como

> i > = K })^+ 1 [(Eí0) - Ho)_1 Q(V + E<0) - E¡)]k |<D|0)) (2.89a)
es decir

N = | 0[(E¡0) - Ho)_1 Q(V + E[0) - E¡)]k |4>po) (2.89b)

donde la corrección de orden k a la función se expresa como


|<E>ík)) = [(E[0) -H o J-'Q ÍV + E,^ - E ¡ ) ] k|o í 0))

= [(E<0) - H 0 )- 1 Q(V + E[0) - E i) ] |o í k-1>) (2.90)

Para obtener las correcciones a la energía, multiplicamos la ecuación exacta por


la izquierda por |:

E¡ = (®j°> | H 10¡) = (O |0) | H 01O j} + (O>[0) |V| ) = E |0) + ( $ [ 0) |v | d>¡ ) (2.91)


y, utilizando la expansión de la función, se obtiene la de la energía:
Índice
98
Capítulo 2

E¡ =E(0) + ($ [ 0) |v |J ) [ ( E Í 0) - H 0 )_1 Q(V + E¡0) - E¡)j |o j 0))' (2.92)

La corrección de orden k a la energía se expresa:


E |k) =(<D|0) |v |[(E P ) - H 0 )- 1 Q(V + E[0) - E i) ] k"1 |3>P)) (2.93a)
es decir, en función de la corrección de orden k- 1 a la función:
E[k) = ( o í 0) |v|<5|k-1)) (2.93b)

Así, para los primeros órdenes tenemos:

i) correcciones de orden cero a la función y de primer orden a la energía:

I<I>¡ ) = |<1>¡0)) (2-94)


y E¡ = E | 0) + E f } =E [ 0) + ( ^ 0) |V |OÍ0)) (2.95)

ii) correcciones de primer orden a la función y de segundo a la energía:


|® .) _ |o í 0)) + |o j 1)) (2.96)
y E¡ = E[0) + E ^ + E[2) con E|2) = ^ ° ) | v | o P )) (2.97)
Operando, se llega a:
/<E^0) |v |o ( 0)\
I**1’) ' ! É r-E f> ^ < 2 -9 8 )

v, ( < > |v |# f > ) { o f > |y |a . r )


1 ¿i
J*» E<0) -E<0)

iii) correcciones de segundo orden a la función y de tercero a la energía:


I<1 ).) = | o f >) + 1 ) + 1OÍ2)) (2 . 1 0 0 )

y E¡ = EÍ0) + E f} + E[2) + E[3) con E(3) = ( o |0) |v|<D|2}) (2.101)


Aparece en la expresión la energía exacta, E., que ha de aproximarse. Dado que en
las correcciones los distintos términos han de ser función de una misma potencia
de V , se ha de aproximar E¡ = E[0) + E f •*. Operando, se obtiene para la función:

u ,,,,
i 1 / .A
k,j*i (Ef0) - E (k0))(E[0) - E ^ ) I k

< 2 -1 0 2 )

Índice
99
Capítulo 2

y para la energía:

P Í3) ^ H 0)|v |o r} (< i> i0)|v |o f } ( o f |v |< i » w )


¡ ( E ^ - E fX E P - E f)

í2103,
Z¡ ( E f }- E f } ) 2 K¿-Mó)
Es importante señalar que la degeneración ocasional entre las energías de orden
cero de los estados excitados y el estado de referencia conduciría a contribuciones
exageradas que ocasionarían la divergencia de la serie. Para una buena estimación
de las correcciones, es necesario que no exista degeneración. Si existe, el orden
cero monoreferencial no sería adecuado. Cuando el sistema requiere un
tratamiento multireferencial, una solución consiste en construir un Hamiltoniano
efectivo Hef hasta el orden de perturbación deseado. El espacio de referencia, S,
está constituido por los determinantes que dan una descripción correcta a orden
cero. A los elementos matriciales del Hamiltoniano en esta base, se van añadiendo
correcciones. Así, por ejemplo, a segundo orden de perturbación, si x¥ l y Wj son
dos determinantes del espacio de referencia y Wa un determinante del espacio
complementario:
Heuf =H(0)+H(2)
IJ u
(2.104)
v '
con

St E¡0)-E<0) I J
Una vez corregidos todos los elementos de matriz, por diagonalización del
hamiltoniano efectivo obtendremos la energía correspondiente.

2.3.2.3. Separabilidad de las correcciones

La separabilidad se conserva en todos los órdenes de perturbación en la teoría


Rayleigh-Schródinger. La demostración para el caso general puede efectuarse
mediante técnicas diagramáticas (linked, cluster theorem) que no se verán aquí.
Dado que la separabilidad para segundo orden es fácil de demostrar en el caso
general, nos limitaremos a este orden, aunque en un apartado posterior podremos
comprobar que también se cumple para tercer orden en el ejemplo de n moléculas

de H2 sin interacción.

Sea un sistema AB compuesto por dos sistemas A y B que no interaccionan. Al


ser independientes los subsistemas:
H AB = H A + H B y VAB= V A + VB (2.106)

Índice
100
Capítulo 2

Para la función de referencia, se cumple:


^ ab = * (2.107)

con E(a°¿ = E(;j) + E(b0) (2.108)

Manteniendo la misma indexación: i para el estado fundamental y jpara los


excitados,

^(0) = ipWxpW y $(<>) = xpWvpV) (2.109)

Y Aj Bj

Sustituyendo en (2.99):
(2) ^ ( < )lii(B?|(vA + VB) | | ( v A+ v B
Bi ES>+ E g)-(E ^> .+ £(“>)

( ^ W | ( v A +V B) | ^ < ) ) ( < / < ¡) |(VA + VB) ! < > < > )


E $+E < b? -(E $ + E < ° > )

fa M ^ A + V e ) |< ? lI;Bk)) ( ^ (Aj)líj(Bk) l(VA + VB) | < M ? )


+¿ ¡ E ^ +E ^ -(E ^ +E^)
Puede verse que, dado que las integrales entre dos fragmentos son nulas, el tercer
sumando es nulo. Los otros dos se simplifican a:

e P - 2
ü(0) __P(0)
J*i Bi Bj

,v M
\
? IVAIW£>
Al | A |
) Nf<j$
AJ / \ AJ IIVAIA | ¡A1 / /O 1 1 1 \
Z E(0) _ E(0) • >

con lo que se comprueba la separabilidad:


E ^ -E ft+ E g * (2 . 1 1 2 )

Índice
Capítulo 2

2.3.2.4. Partición M 0 ller-Plesset

Veamos ahora la expresión de las correcciones cuando se utiliza la partición


M 0 ller-Plesset? implementada en la mayoría de paquetes de programas. Como
hemos comentado, el Hamiltoniano aproximado se toma como la suma de
operadores monoelectrónicos de Fock:
(2.113)

Las funciones de orden cero son los determinantes y las energías de orden cero la
suma de energías monoelectrónicas:
| o | 0)) = |W0 ) , | o i 0)) = |Wk>, con|V k) = |xpXq- ) (2.78) y (2.79)

y Eí0) = 2 £a , = (2.80) y (2.81)


p

Puede verse fácilmente que la energía Hartree-Fock contiene la corrección de


primer orden a la energía:
E « = ( ^ 0 |V|W0) = (W0 | 2 - | ' P 0 )-(v p 0 |J v ( i) |v I/0) (2.114)
i>l riiij
J>» 1

(2.116)

Se observar que en las correcciones de primer orden a la función y de segundo a


la energía sólo aparecen dobles excitaciones ( s i ^ n ó fuera el determinante
Hartree-Fock, habría que tener en cuenta igualmente las simples excitaciones):

(2.117)
r< s

y (2.118)
r< s r< s

Una vez más se observa que la degeneración de las energías de orden cero tiene
una traducción sencilla a nivel orbital; la degeneración entre orbitales ocupados y
virtuales. Cuando no existe una buena separación entre orbitales ocupados y
virtuales, no es adecuado este tratamiento. Los órdenes superiores presentan,
naturalmente, el mismo problema.

Finalmente, indiquemos la corrección de tercer orden a la energía:

Índice
102
Capítulo 2

E„ , , y (fp |h |y"b) (w "„| v | ) ( i 1.* |h |s >0)


k k (ea + eb - er - es)(ea + eb - et - eu)
r<s t<u

_E<1) (2 U 9 )
a<b ( £ a + 8 b ” 8 r ” 8s )

Utilizando estas expresiones para n moléculas de hidrógeno sin interacción,


puede comprobarse que los dos términos de la expresión (2.119) contienen
contribuciones con dependencia en n2 pero que ambas contribuciones se cancelan.
Esta cancelación se reproduce para todos los órdenes de perturbación.

2.3.3. La aproximación Coupled Cluster

Los orígenes de la aproximación Coupled Cluster se remontan a los años


cincuenta, estrechamente ligados a los desarrollos de las teorías perturbativas
(Many Body Perturbation Theory). Sinanoglu a principios de los sesenta introdujo
la expansión en clusters de la función para sistemas moleculares y Císek formuló
después las ecuaciones. La forma de la función de onda, que deja de ser una
expansión lineal para tomar una forma exponencial, asegura una correcta
separabilidad de los fragmentos y una correcta N-dependencia (size-consistency).
Las teorías de pares acoplados, CEPA, aunque históricamente con origen distinto,
son formas aproximadas de esta teoría. Actualmente, los métodos CC incluyen
distintos niveles de aproximación. Los más usados son de tipo monoreferencial: el
método CCSD que incluye operadores de diexcitación y distintas aproximaciones
incluyendo triples excitaciones, CCSD(T). Existe también una teoría MRCC.

2.3.3.1. Estructura exponencial de la función de onda

La teoría de perturbaciones define el concepto de operador de onda como él que


aplicado sobre la función de referencia la transforma en la función exacta. Si la
función de referencia es un determinante de Slater:
<E> = QW0 (2.120)
donde Q es el operador de onda. Esta definiciónpermite dar distinta forma al
operador de onda según el tipo de expansión mediante la que se defina la función.
Así, en la expansión lineal de la Interacción de Configuraciones:
# = ( 1 + C1 +C 2 +...)W 0 (2.121)
con 0 = 1 + Cj + C2 +... (2 . 1 2 2 )
C15 C2,... agrupan los operadores de monoexcitación, de diexcitación, etc. :

Índice
103
Capítulo 2

C, = 2 cáa> a A = 2 c> X a baa,C 3 = 2 ca t a X ara cabaa , ... (2.123)


a,r a<b a<b<c
r<s r<s<t

donde c[ , son los coeficientes de la expansión lineal de la IC.

En la teoría CC, la función de onda se postula:


<5 = ef W0, con Q = ef (2.124)
donde í es el operador de cluster, que puede expandirse en función de los
operadores de excitación:
í = T1+ Í 2 + Í 3... (2.125)
con
= ^ C a r as+abaaJ 3 = 2 tareb'X a s+a > cabaa , ...(2.126)
a,r a,b *3* a,b,c
r,s r,s,t

donde t[ , t™b, t^c, ... son las amplitudes de cluster. Expandiendo la exponencial en
serie:
ef = Q = 1 + T + — f 2 + —T3 +... (2.127)
2! 3! v ’
e igualando los términos con igual orden de excitación, se obtienen las relaciones:
q=Ti Tj = c,

c2 = í 2 + ^ í2 t 2 = c 2~~cf

C3 = f 3 + f , f 2 + ^ f ,3 f 3 = C3 - C,C 2 + I c ? (2.128)

C4 = t 4 + I f 22 +í]73 + i f 2 f 2 + l f ,4 T4 = C4 - i c 2 - Q C 3 +C fC 2 - ± C f

En las expresiones de la izquierda, que representan un nivel de excitación, se


observan dos tipos de contribuciones. La primera de cada expresión, T¡ para C¡, es
la componente de cluster conectada de la excitación de orden i, mientras que el
resto de términos, siempreproductos de dos omás operadores, son las
componentes desconectadas. Estas componentes son las responsables del error de
consistencia de tamaño que induce el truncamiento a un nivel de excitación C¡. No
obstante, el truncamiento del operador T a un orden determinado T¡ siempre
permite una perfecta separabilidad. Esta propiedad puede comprobarse fácilmente,
como veremos a continuación. Naturalmente, si no se trunca ninguna de las dos
expansiones del operador de onda, se llega a la misma solución: la función exacta.

Índice
104
Capítulo 2

2.3.3.2. Separabilidad de la función CC

Consideremos un sistema AB compuesto por dos fragmentos A y B sin


interacción. La función de la supermolécula AB se expresa:
rAB
O = e Wq (2.129)

con <Í>A = ef V A y <DB = ef 'V® (2.130)


Al ser independientes los subsistemas, se cumple para la función de referencia:
WoB = ¥ X (2.131)
y además
f AB = f A+ T B con [ Í A, Í B] = 0 (2.132)
lo que implica para el operador de onda:
Q AB= Q AQ B, (2.133)
Substituyendo en la expresión de la función de onda del sistema AB:
<I)AB = efAV AÍ! = efA+tV AW0B = efAWAef V B = O aO b (2.134)
y por tanto
E ab = E a + E b (2.135)
La separabilidad multiplicativa del operador de onda asegura puesla aditividad de
la energía.

2.3.3.3. Aproximación CCSD

El primer nivel de aproximación consiste en truncar la expansión deT = Tx +T2 .


Despreciando por simplicidad el operador de monoexcitación, se obtiene para la
función:
0 ccsd = e f 1+f2^ o = ^i + f, + f 2 + i ( t + f 2 ) 2 + l ( f 1 + T2 )3 + . . . j v 0 (2.136)

Las ecuaciones para evaluar la energía de correlación y las amplitudes se obtienen


proyectando sucesivamente la ecuación:
( h - E 0 )e f ' + f^ 0 = EcorreT|+T^ (l (2.137)

sobre W0,W[7WT ¿ ... Dado el carácter bielectrónico de H , se obtienen las


siguientes ecuaciones para le energía de correlación:
('P 0 | H - E 0|(1 + T1 + f 2 + l / 2 T12 )W0) = Ecorr (2.138a)

\rK + 1 / 2 y ( abHrs) tatb + 1 / 4 y ( abH C b = Ecorr (2.138b)


a,r aj) a^b

Índice

105
Capítulo 2

y para las amplitudes:


(W[ |H - E 0 1( î , + % +1/2(1? + 2T,f 2 ) + l/3!Tj3 )w 0) = t;E cori

( n |H - E 0 |(H + % + 1/2(1? + f 22 + 2Tjf2) + 1/ 3! (T[3 + 3i; 2 T2) + l/4 !T t4 ) v o)

= trsE
ab con (2.139)

Teniendo en cuenta que en estas ecuaciones aparecen contribuciones del tipo:

( ^ | H | ^ b)t^tsb = ( ( ^ o |H |^ sb) t sb )n

(2.140)

puede verse que en cada ecuación aparecen las contribuciones a la energía de


correlación multiplicadas por el correspondiente coeficiente, lo que permite
cancelar la energía de correlación en ambos lados de las ecuaciones, asegurando la
size-consistency. Mediante un método de resolución de ecuaciones no lineales se
obtienen las amplitudes, y finalmente se determina la energía de correlación.

Existen simplificaciones de este método, sobretodo para linealizar las


ecuaciones. Por otra parte, existen diversos métodos para incluir el efecto de las
excitaciones triples, de forma exacta o aproximada. Los métodos CC tienen la
ventaja indiscutible de dar una correcta separabilidad de los fragmentos. Pero al
igual que los métodos de interacción de configuraciones o en los perturbativos,
requieren que la función de orden cero de una descripción correcta del sistema. Por
ello, los métodos CC monoreferenciales como el CCSD aún con inclusión de las
triexcitaciones no pueden dar descripciones correctas para aquellos sistemas que a
orden cero sean de naturaleza multireferencial. Existen métodos MRCC, aunque su
implementación es compleja y su uso está lejos de poder ser considerado de rutina.

Para tratar estados excitados, existen versiones de los métodos CC combinados


con los denominados de la Equation o f Motion (EOM) en alguna de sus
aproximaciones que permiten obtener directamente transiciones energéticas entre
estados. Estos métodos extrapolan el efecto de la correlación dinámica del estado
fundamental a los estados excitados.

Índice

106
Capítulo 2

2.4. TEORÍA D EL FUNCIONAL DE LA DENSIDAD

La Teoría del Funcional de la Densidad (DFT) (Parr, 1989) representa una forma
alternativa a la de los métodos ab initio convencionales de introducir los efectos de la
correlación electrónica en la resolución de la ecuación de Schrödinger electrónica. De
acuerdo con la DFT, la energía del estado fundamental de un sistema polielectrónico
puede expresarse a partir de la densidad electrónica, y de hecho el uso de la densidad
electrónica en lugar de la función de onda para el cálculo de la energía constituye la
base fundamental de la DFT. Por desgracia, la fórmula matemática exacta que
relaciona la energía con la densidad electrónica no es conocida, y es necesario recurrir
a expresiones aproximadas. Estas expresiones acostumbran a proporcionar resultados
sorprendentemente buenos si uno considera las aproximaciones en las que éstas se
basan. El principal inconveniente de estos métodos se encuentra en el hecho de que
para sistemas en que DFT da resultados erróneos no hay forma sistemática de
mejorarlos. Aún así, los métodos basados en la DFT se han popularizado en la última
década para el cálculo de sistemas de cierto tamaño, y en especial para los complejos
de metales de transición, a partir de la introducción de funcionales de correlación-
intercambio que proporcionan resultados de calidad comparable o superior a la que
ofrece el método MP2. En los apartados que siguen a continuación se discuten los
fundamentos y la formulación práctica de la DFT.

2.4.1. Conceptos previos: funciones y matrices densidad

2.4.1.1. Funciones densidad

Consideremos un sistema de N electrones descrito por una función de onda W(x1?


Xj, ..., x j El producto W(xp x2, ...., xN)W*(x15 x,, ...., xN) dx, dx^ ... dxN nos da la
probabilidad de encontrar el electrón 1 entre xxy Xj+dXj, el 2 entre x^y x^dx,, ..., y el
N entre x^ y xN+dxN. La probabñidad de encontrar el electrón 1 entre Xj y Xj+dXj,
independientemente de donde se encuentre el resto vendrá dada por:
dxxj m ( x l jc2, ---xN)xV * , x 2, ---xN) dx2 ---dxN (2.141)
y dado que los electrones son indistinguibles:
p ( x x)dxx = N d x 1j W ( x 1£ 2, ---xN)xíf * ( xl , x 2J' ' ' X N) dx2 - " d x N (2.142)
nos da la probabilidad de encontrar un electrón entre x { y x l+dxl independientemente
de donde se encuentre el resto. p(x) es la denominada función densidad. Integrando
respecto a la coordenada de espín se obtiene la densidad electrónica, p(r), que también
puede determinarse experimentalmente mediante la técnica de rayos X.
p fó) = / p(*i)dsi = N í¿ 2>■■■XNW * ( X 1’X2’■■ ■• -dxN (2.143)
Dado que VP está normalizada:
Jp(r)dr=N (2.144)
Índice

107
Capítulo 2

En un sistema con N electrones, Na electrones tienen espín a y los Np electrones


restantes espín (3. Es posible definir las densidades electrónicas correspondientes a
los electrones a y (3 por separado, pa(r) y p|5(r). Para el caso particular de p“(r)
tenemos que:
p a (r1) = N a (2.145)
nos da la densidad de probabilidad de encontrar un electrón a entre y rl+drí.

La diferencia ps(r) = pa(r) - pp(r) constituye la denominada densidad de espín. Un


valor de ps(r) > 0 indica que hay un exceso de densidad a en el punto r. Con la
densidad de espín sobre un átomo se determinan teóricamente los acoplamientos de
contacto de Fermi que pueden compararse con valores experimentales obtenidos
mediante la técnica de resonancia de espín electrónica (ESR).

Por otro lado, la integral:


d x1 d x2J W ( x 1yX2, *" X N )W * (x j, x 2, ***x N )d x3 • **d xN (2.146)
nos da la probabilidad de encontrar al electrón 1 entre Xj y x 1+dx1 y al 2 entre x2 y
x 2+dx2, independientemente de donde se encuentren el resto. Se define la densidad
de segundo orden, y2(x1?x2)? según:
Y 2( x -í , x 2) = N ( N - l ) f W ( x l ¿x2, --- xNy ¥ * (xx, x 2, ---xN)dx3 ■■■dxN (2.147)
en donde N(N-l) son las posibles parejas de electrones que se pueden formar, y por
consiguiente, dado que los electrones son indistinguibles, y2(x 1,x2)dx1dx2 nos
proporciona directamente la probabilidad de encontrar un electrón cualquiera entre
Xj y Xj+dXj y otro entre x2 y x2+dx2. Integrando respecto a las variables de espín
obtenemos la densidad bielectrónica o función de pares:
(2.148)
que nos da la probabilidad de encontrar dos electrones cualesquiera uno entre y rt +
drj y el otro entre r 2 y r 2 + dr 2 bajo cualquier combinación de espín (aa,a(3,(3cx,(3P). Al
igual que la densidad electrónica total es la suma de las densidades a y (3, también
es posible separar la función de pares en las cuatro contribuciones siguientes:
r 2 ^ , h ) - y T ( r t ,T2) * y f C r ¡, 7 2 ) * Y ? ' ^ , 7 1) + r ? ( r l ,T¡ ) (2.149)
donde:
Y2 a(ñ ,rz) = N a (Na - ,r2s2,x3---xN)xV* (rísl ,r2s2, x y - x N)dslds2dx3 ■■■dxN
(2.150)
es la densidad de probabilidad de encontrar dos electrones ex en las posiciones
delimitadas por los vectores rt y r1+ drí y r 2 y r 2 + dr2. De forma similar y2aP(]r1?r 2) es:

y f (Á,r2) = N aN f j ,r 2 s 2 ,x 3 ---xN)W *(r1s1,r2s2,x 3- - x N)ds1ds2dx3 ■■■dxN


(2.151)
Con las definiciones dadas por las ecuaciones (2.147), (2.150) y (2.151) y teniendo
Índice

108
Capítulo 2

en cuenta que:
N(N-1) = (Na+Np)(Na+ Nr l) = Na (Na-1) + NaNp + NpNa + Np(Nr l) (2.152)
se puede demostrar por simple sustitución que se verifica la ecuación (2.149).

2.4.1.2. Matrices densidad

Para ciertas aplicaciones es conveniente trabajar con la denominada matriz


densidad de primer orden o de Fock-Dirac que se define según:
) = TV , x 2,---xN)dx2 ---dxN (2.153)
Integrando respecto a la coordenada de espín se obtiene la matriz densidad
reducida de primer orden:
P Á A ^ \ ) = j p í ( x1, x \ ) d s 1d s \ (2.154)
A diferencia de las funciones densidad, los elementos de las matrices densidad no
tienen significado físico, salvo los términos diagonales, que en el caso de la matriz
densidad reducida de primer orden coinciden con la densidad electrónica.
P i ( Fi ^ ) = P ( Fi ) ^ ° (2-155)
Es interesante resaltar que la suma de los elementos de la matriz densidad reducida
de primer orden, que es una integral por el carácter continuo de los índices de la
matriz, nos da el número total de electrones tal como se desprende de la ecuación
(2.144):
tr Pi = J p i (fx, r}) dr: = J p( rr) drl = N (2.156)
Como veremos más adelante muchas propiedades de los sistemas polielectrónicos, y en
particular la energía, pueden expresarse en función de la matrizdensidadde primer
orden y de la densidad bielectrónica.

De forma equivalente pueden definirse matrices densidad de orden superior a uno.


La más interesante es la matriz densidad de segundo orden que se define a partir de la
expresión:
Y2( x ^ x 2,x,\ , x'2 ) = N ( N - T ) f W ( x 1jc2, ---xN) ' ¥ * ( x \ , x \ , ---xN)dx3 ■■■dxN
(2.157)
Integrando respecto a las coordenadas de espín se obtiene la matriz densidad reducida
de segundo orden:
Y i Q = J y 2(xl , x 2; x \ )dsld s \ d s2d s \ (2.158)
Al igual que en el caso anterior, por un lado sólo los términos diagonales tienen
significado físico, y por otro, la traza de la matriz nos da el número total de pares
de electrones:
Y 2(f:r,r2;r1, r2) = Y 2( r „r 2) (2.159)
f r Y i = f y 2 ( r , , r 2;r], r2) d r ldr2 = J Y 2 (r\ >ri ) drxdr2 = N ( N - 1) (2.160)

Índice
109
Capítulo 2

2.4.1.3. Funciones de onda monodeterminantales

En este apartado vamos a desarrollar las expresiones que se obtienen para las
funciones y matrices densidad de primer y segundo orden para un sistema de N
electrones descrito por funciones de onda constituidas por un solo determinante de
Slater. Distinguiremos entre el caso de un determinante para un sistema restringido a
capa cerrada, en el que:

r¡> = X,C9Xi(2)*2(3)••■*„(*) (2.161)


V ah
o para un sistema no-restringido, para el cual:
x¡j = X \ (tyX 2 (2) *‘
'X n(1( N a ) X n0+i ( N a +1) *•
-%Na+Nfj ( N a + N p ) (2.162)
Vw. * N f y-

2.4.1.3.1. D e t e r m in a n t e d e s l a t e r r e s t r in g id o d e c a p a c e r r a d a

Para la densidad electrónica partimos de la definición (2.143) y con la función de


onda (2.161) desarrollando el determinante de Slater según (2.7), obtenemos:

P in ) •
áwWz,(1)í,0- •
á w j w ••

(2.163)
y por tanto:
N N

P - 164)
De la misma manera, para la matriz densidad de primer orden tenemos:
N_

Pi (Fi ’F 'i ) = 2 ^ x¡ )X ¡ ( r \ ) (2.165)

Dentro de la aproximación LCAO, introducida en el apartado 2.2.2, la sustitución


de (2.34) en la ecuación (2.164) nos lleva a:
N_

p fó )= 2 2 (2-166)
i= I f . I V fi V

N
2
donde Pv/i = 2 ^ CfMCvi son elementos de una matriz hermítica que es la matriz

densidad P.
Por lo que respecta a la función de pares partiendo de (2.147) y (2.148) y
siguiendo el mismo procedimiento obtenemos la expresión:
Índice
110
Capítulo 2

N N
~2 2
Y & h ) = 4^ ^ X i ( ñ ) X j ( r 2)X¡ ft)Xj(r2)-^X *(ñ)x](r2)Xj(ñ)Xi (?2) j (2.167)

que dentro del esquema LCAO se convierte en:


N_ N_

c [à i cy j cen cá5j —2 c fM cv j cq j c,ai


^ = 4 27=1 27=1 2[ i 2v a2 2 / T
(2.168)
Definiendo la matriz densidad de segundo orden, T, según:
N_

C ^jC .nCíj - - C ^ C j C u P p --P p (2.169)


' 4I I OpL ÂV ^ XfJ, OV

se obtiene finalmente:
Y Á ^ r .2) = Z
Yj Z
Yj Z
Yj Z2j ) & * (F2 )0ct<7i)0af ë ) (2-170)
ß V <7 A

2.4.1.3.2. D e t e r m in a n t e d e s l a t e r n o - r e s t r in g id o

Para un sistema de N=Na+Np electrones descrito por un determinante de Slater no-


restringido como el de la ecuación (2.162), la densidad electrónica se expresa:

P © - A y J V - l ) ! 3 * © l 2+ S I * ® ! 2 - p °<x >+î/ ® - S W ! (2-171)


i—
\ /=l+jVa ¿=1

Dentro de la aproximación LCAO, la ecuación (2.171) se transforma en:


p(f\) = 2f i 2V (?i)■+ 2 2 p í ^ ^ * < * ) - 2 2 ^ ^ ) (-2'172')
con:

/>« = y c *.c . pa
vu 2 j ^ Vl
(2.173)
,1 ;
Para la matriz densidad de primer orden tenemos:

P i ( ñ ^ <7i )x,*(r'i ) ; p “ ,r ^ X í )%,*( r \ ) (2.174)

Finalmente y de acuerdo con la ecuación (2.149) para la función de pares tenemos


fundamentalmente dos posibilidades dependiendo de que los dos electrones
situados en rl y r 2 tengan el mismo espín o espín diferente. Para el primer caso,
suponiendo que los dos electrones son de tipo a, nos queda:
Na Na ( ' v
Y?(rv r2) = (ri)Xj(r2) - X f f i X j f á X j f f i X i (h)) (2.175)

que, teniendo en cuenta (2.171) y (2.174), se traduce en:


Índice
111
Capítulo 2

y 2a (F1,f2) = P '“ (7l ) P '“ ( F2 ) - Pl“ (F1>F2 ) P f ( F2 >F1) (2-176)


y, dentro de la aproximación LCAO:
r, < 2-177)
/¿vcrA

K ^ - p ^ pí - p m (2.178)
Obviamente tenemos expresiones idénticas para el caso de dos electrones |3
simplemente cambiando a por P en las ecuaciones (2.175) a (2.178). Para el caso
de un electrón de tipo a e n r j otro (3 en r 2 nos queda:
Na Na +N p
y f (Fi ,r2) = y y , x ' ) * ! (A)X¡ Q\)X, ( r2) = P° ( Á ) p /J (f2) (2.179)
m y 4 r+i

yf(A^2)= 2 r ^ A^ ^ ^ ^ ^ ( F2 ) (2-180)
livoX
K L = pX (2-181>

2.4.1.4. Hueco de correlación-intercambio

La densidad bielectrónica, y2(r 1?r2), nos da la densidad de probabilidad de encontrar


simultáneamente dos electrones uno en r} y otro en r2. Así pues, la densidad
bielectrónica contiene información sobre el movimiento correlacionado de dos
electrones. La misma información sobre la correlación electrónica está contenida en la
densidad de correlación-intercambio, la densidad de probabilidad condicional, y los
huecos de correlación-intercambio que a continuación se describen.

La densidad de correlación-intercambio, r xc(r 15r2), se define a partir de la


expresión:
y 2 (Fl>F2 ) = P ( Fl) P ( F2 ) + r A-c(Fl>F2 ) (2-182)
En esta ecuación, Y2(rpr 2) representa la densidad de probabilidad de encontrar un
electrón en rl y otro en r 2. El término p(rj)p(r2) es la densidad de probabilidad de
encontrar un electrón en y otro en r2, considerando los electrones como partículas
independientes, no correlacionados. Por consiguiente, la densidad de correlación-
intercambio, Txc(rpr^), representa la diferencia entre la densidad de probabilidad de
encontrar dos electrones, uno en r 1 y otro en r2, correlacionados o sin correlacionar.

Dividiendo y2(r19r^) por p(rj):

^ j ^ l = P(r1, f 2) (2.183)
P ( ri)
se obtiene la densidad de probabilidad condicional, P(r ,r :), que nos da la densidad
de probabilidad de encontrar un electrón en r2 cuando ya hay uno en rr Esto se ve
más claro cuando se reordena (2.183) a:
Índice
112
Capítulo 2

7 2 ( F1^2) = P(?i)P(ji>r2) (2.184)


que posee la misma forma que la probabilidad de que se produzcan los sucesos A y
B, P(A U B) = P(A) Pa(B), en donde P(A) es la probabilidad de que suceda A, y
Pa(B) es la probabilidad de que habiendo ocurrido A se produzca B.

Dividiendo (2.182) por p(rt) se llega a:


^ ( ri?r 2 ) = PÍTi ) + P x c i f i ^ i ) (2.185)
con:

(2-186)
p ir i)
pxc(rpr2) recibe el nombre de hueco de correlación-intercambio o de Fermi-Coulomb.
Según (2.185) el hueco de correlación-intercambio es el término de corrección que
hay que añadir a la probabilidad no condicional para obtener la probabilidad
condicional. No es más que la región alrededor del electrón en la que la presencia de
otros electrones está excluida en mayor o menor grado. Sustituyendo (2.185) en
(2.184) se tiene que:
Y 2 (Fi >F2 ) = p fó )P(r2) + p ( f x) p xc (rx, r2) (2.187)
De la misma forma que la ecuación (2.149) separa la densidad bielectrónica para
cada par de puntos en cuatro contribuciones, también es posible separar las
contribuciones a pxc(r 1?r2). Así:
r T (?,, f2) - p " (?, ) p " ñ ) + r " (i;, r2) p . 188)

, p> °(r ?2) , p « & + S g l S ) = p . (? ) + p Tc{r„r2) (2.189)


p (a ) p Oí)
donde paaxc(r 1,r2) es el denominado hueco de Fermi y representa para un determinado
electrón de referencia con espín a situado en la región del espacio en la que la
presencia de otro electrón del mismo espín está excluida en mayor o menor grado. La
probabilidad de encontrar un electrón en r 2 cuando hay uno del mismo espín en rx se
reduce, especialmente para liy rj pequeñas. También:

1- ¿ % ^ - P " \ r lJ 2) - p \ r i ) + Y^ % ^ . p \ r 1) + p í ( f ¡, f 1) (2.190)
p to ) p ir i)
p“,!xc(rpr2) es el denominado hueco de Coulomb y nos daría la zona en la que la
presencia de un electrón [3 está excluida o favorecida en el caso que tengamos un
electrón de referencia con espín a situado en r r

Las funciones pxc(r 15r2) son evidentemente complicadas, aunque es posible


determinar algunas de sus propiedades a partir de consideraciones generales. Así, por
el principio de exclusión de Pauli:
r r t f . ñ ) = l'2®V1, r , ) . 0 (2.191)
que, teniendo en cuenta (2.189), conduce a:
Índice
113
Capítulo 2

p£ft.ri)—P“(rí) (2.192)
A partir de (2.150) y (2.145) se demuestra fácilmente que:
-W. -1 (2.193)
y a partir de (2.151) y (2.145) de forma equivalente se encuentra:
f y ? ( 7 „ 7 2)d72 . N l P °(7t) (2.194)
Partiendo de (2.190) y utilizando (2.194) se verifica que:
JP xf (7i>F2)dr2 = f p % ( r \ , r 2) dr2 = 0 (2.195)
De forma parecida, partiendo de (2.189) y usando (2.193) se llega a:
fp Z (r,A )* 2 — i (2.196)
Dado que para un electrón a cualquiera:
Pxc (ri») = Pxc (ri’r2)+ Pxc (n’rz ) (2.197)
se llega por sustitución a:
j*P xc (^lJ^2) ^2 = —1 (2.198)
lo que constituye la denominada regla de la suma. Así, un electrón situado en r
crea a su alrededor un hueco, un déficit de carga, siendo la carga que desplaza
exactamente igual a la de un electrón positivo. Este hueco sigue al electrón en su
movimiento.

2.4.1.4.1. H ueco de c o r r e l a c ió n -in t e r c a m b io en f u n c io n e s de onda


m o n o d e t e r m in a n t a l e s

A nivel Hartree-Fock (HF), en el que la función de onda está descrita mediante


un único determinante de Slater, se puede demostrar fácilmente a partir de (2.179)
y (2.190) que:
) - 0
P f ( r „ r 2) - P Í ( ? „ ? 2 (2 . 199 )
lo que demuestra que a éste nivel no hay correlación electrónica entre dos
electrones de diferente espín. El hueco de Coulomb no está bien descrito a este
nivel. Por otro lado, también es posible trabajar con las expresiones (2.189),
(2.176) y (2.174) para demostrar que a nivel HF:
„aa r --- -x ppX' (ri) X i ji f l ) n onnx
-------------------- M U ------------------------------------------------ }
es decir, los electrones de espín paralelo sí que están correlacionados, lo que no
sorprende puesto que una función de onda descrita por un determinante de Slater
cumple el principio de exclusión de Pauli.

Índice
114
Capítulo 2

RH_H=1.4 bohr Rh_h=5.0 bohr

Hueco
de Fermi

Hueco de
Coulomb

Hueco
total

Figura 2.1. Hueco de Fermi, hueco de Coulomb y hueco total en la molécula de


hidrógeno para dos valores de la distancia intemuclear. Los rombos indican las
posiciones de los núcleos y el triángulo la posición del electrón de referencia.

La Figura 2.1 nos muestra de forma esquemática cómo es el hueco de Fermi, él de


Coulomb y la suma de ambos para una molécula de hidrógeno con distancias
intemucleares de 1.4 y 5.0 bohrs (Baerends, 1997). El hueco de Fermi presenta una
forma muy parecida al orbital que ocupa el electrón de referencia, en este caso el a g de
la molécula de hidrógeno, y ésta no varía al cambiar la posición del electrón de
referencia, por lo que se dice que el hueco de Fermi tiene naturaleza estática.
Finalmente, este hueco integra a un electrón con lo que impide que un electrón del
mismo espín ocupe este orbital. Es interesante comentar que la densidad electrónica
que se aparta alrededor del núcleo que contiene el electrón de referencia es
únicamente la correspondiente a la mitad de un electrón. Por su parte, el hueco de
Índice

115
Capítulo 2

Coulomb posee naturaleza dinámica, en el sentido que su forma depende en gran


medida de la posición del electrón de referencia. Da carga nula por integración, con lo
que la correlación de Coulomb, por un lado, disminuye la probabilidad de encontrar
un electrón de espín diferente al de referencia en la región cercana al electrón de
referencia, pero por otro lado, aumenta la probabilidad de encontrarlo en regiones
alejadas del electrón de referencia. El hueco total puesto que es la suma de los dos
anteriores, da un electrón por integración. La forma del hueco de Fermi y del hueco
total a distancias de equilibrio es similar. Sin embargo, a distancias mayores, la
diferencia entre los dos huecos es sustancial. HF sólo incorpora el hueco de Fermi y,
en consecuencia, se entiende que HF dé un resultado aceptable para la distancia de
equilibrio, pero que sea claramente inadecuado para estudiar la disociación de los
enlaces, tal como se ha comentado en el apartado 2.2.3.

Otras consecuencias que se derivan del hecho de que HF sólo incorpore el


hueco de Fermi que, como se ha comentado, es estático y débil alrededor del
electrón de referencia son: a) es más fácil colocar un electrón sobre el mismo
átomo, y por tanto, HF da un peso excesivo a las estructuras iónicas; b) los
orbitales (y la densidad electrónica) acostumbran a ser demasiado difusos dado que
el electrón no experimenta con suficiente fuerza la atracción de su núcleo (esto es
debido al exceso de apantallamiento de la carga nuclear por la fracción de electrón
que no debería encontrarse en el mismo átomo); c) la debilidad del hueco de Fermi y
su naturaleza estática provocan que HF dé resultados poco satisfactorios para sistemas
con enlaces débiles y enlaces múltiples; y finalmente d) en promedio dos electrones
están más próximos a nivel HF que en métodos correlacionados, y en consecuencia,
HF sobrestima la repulsión interelectrónica.

2.4.2. Expresión del valor esperado de un operador en función de la densidad

Es posible expresar el valor esperado de cualquier operador mono o bielectrónico a


partir de las funciones y matrices densidad de primer y segundo orden. En el caso
particular de un sistema monoelectrónico, el valor esperado de un operador F viene
dado por:
(F)=pV*(x)FV(x)dx (2.201)
Para el caso de operadores F que contengan únicamente productos o divisiones la
expresión que resulta en función de la densidad electrónica es:
( F ) = j F p(x)d5c (2.202)
En el caso de operadores que contengan derivadas, exponenciales y otras funciones
que impidan que las dos funciones W sean multiplicadas antes de aplicar el operador
F , tenemos:
(jF) = j*F ?p (x)ip * (x f)dx = J F Pj ( x , x 1)dx (2.203)
x'=x x'=x

Índice

116
Capítulo 2

donde, en primer lugar, F actúa sobre la variable x y a continuación y antes de


proceder a la integración, la variable x’ se transforma en x, lo que se indica con x’=x
debajo del símbolo de integración.

De forma parecida, en el caso más general de un sistema polielectrónico, nos


encontramos que para un operador monoelectrónico del tipo:
é x = 2 h(}) (2.204)
l
el valor esperado de este operador puede expresarse en función de la matriz densidad
de primer orden según:
' v é , XV ) = /Mf h ( rFti)Pi(F
) p , ( r ti>F'iM
, r \ ) d rFti (2.205)
T\-h
y que para un operador bielectrónico tal como:
(2.206)
i j>i
es posible obtener el valor esperado a partir de la densidad bielectrónica:

W ) = Ì l i ^ 1,2)Y 2^ ^ (2.207)

Utilizando (2.205) y (2.207) se puede expresar el valor esperado de la energía


electrónica para un sistema de n electrones y N núcleos para una configuración
nuclear dada en función de la matriz densidad de primer orden y de la densidad
bielectrónica. El operador que hay que tener en cuenta es el hamiltoniano:
A / 1 _ , .............. 1
H el = - v (0 + n 0 (2.208)
r=f1SÍ\r¡ - r .
por lo que:

H„

(2.209)
Sustituyendo (2.187) en la ecuación anterior nos queda:

E e¡ = / Pl(Fl ’ F' l ) dFl + +


(2.210)
1 , r p ( j x) p x c { r y r 2)

Los diferentes términos que aparecen en (2.210) son, respectivamente, la energía


cinética de los electrones, la energía potencial electrón-núcleo, la repulsión
coulómbica entre electrones y la energía de correlación-intercambio electrónica.
Para este último término es posible escribir:

Índice
117
Capítulo 2

Wxc representa la interacción de p ^ ) con su hueco de correlación-intercambio


pxc(r 1?r 2). El electrón interacciona con una distribución de carga efectiva
correspondiente a un electrón positivo, tal como se desprende de la regla de la
suma.

En definitiva, la ecuación (2.210) muestra que es posible expresar la energía a


partir de las funciones y matrices densidad de primer y segundo orden, y en
consecuencia se dice que la energía es un funcional de la densidad.

Por funcional entendemos una expresión matemática que asocia un número a una
función. Se suele escribir entre corchetes. Un ejemplo clásico es el de la integral
variacional,

(2.212)

Dada una función el resultado de aplicar (2.212) es una energía, y por tanto la
energía es un funcional de la función de onda. Los funcionales pueden
diferenciarse y derivarse.

El diferencial de un funcional F[f] tiene la forma:

(2.213)

Para determinar la derivada de un funcional,

SF como F[f+ 6 f|-F[f]:

(2.214)

Así por ejemplo, tomando el potencial de interacción electrón-núcleo como un


funcional de la densidad electrónica:
(2.215)
la derivada de este funéional respecto a la densidad se obtendría a partir de las
siguientes ecuaciones:

« V =V„,\p + S p ] - v M - f v f f ) S P d r - f - ^ - S p d r (2.217)
por lo que:

Índice
118
Capítulo 2

ÖV
— ^ = v(r) (2.218)
dp

2.4.3. Teoremas de Hohenberg y Kohn

2.4.3.1. El primer teorema

La ecuación (2.210) nos muestra que es posible expresar la energía electrónica


de un sistema como un funcional de funciones y matrices densidad de primer y
segundo orden. El primer teorema de Hohenberg y Kohn (Hohenberg, 1964) que
supone el nacimiento de la teoría del funcional de la densidad rigurosa, va más allá
y se enuncia:

Cualquier observable de un estado estacionario fundamental no


degenerado puede ser calculado, en principio deforma exacta, a partir
de la densidad electrónica de este estado fundamental, esto es,
cualquier observable puede escribirse como un funcional de la
densidad electrónica del estado fundamental.

Para demostrar este teorema en primer lugar demostraremos que dada una
densidad p(r), el potencial externo queda determinado excepto en una constante
aditiva. La demostración la haremos por el absurdo, suponiendo que lo dicho no es
cierto y llegando a una contradicción.

Vamos a considerar que tenemos la densidad exacta de un estado fundamental


p(r). Supongamos también que se trata de un estado no degenerado (hay una sola
función de onda que describe este estado). Asumimos que la misma densidad p(r)
puede obtenerse partiendo de dos potenciales externos (electrón-núcleo) diferentes
(Vj(r) y v 2(r)) que lógicamente generan dos hamiltonianos diferentes H x y H 2.
Estos hamiltonianos producen dos funciones de onda diferentes para el estado
fundamental xpj y % , que corresponden, a su vez, a dos energías distintas
E x = \J¡J1 H x i¡J1j y E 2 =(i p2 H 2 ^ 2/- En estas condiciones calculamos el valor

esperado de la energía de x|j2 con el hamiltoniano H x y, basándonos en el principio


variacional, tenemos:
E x < W 2H t % ) - { % ^2 + ^ 2 Ht - H 2 = E 2 +Jp(r\ v1( r ) - v 2(r)]lf
(2.219)

Índice
119
Capítulo 2

De la misma manera, calculamos el valor esperado de la energía de i\)l con el


hamiltoniano H 2 y basándonos en el principio variacional obtenemos:

E2 1«?,} |w , ) + (i> ,|h 2 - H , |<P,) - E , + J p(?Jv 2 ( r ) - v,(r


2 220 (. )
Por último, sumando las ecuaciones (2.219) y (2.220) se obtiene la siguiente
desigualdad:
Ex +E2 <E2 +Ex (2 .2 2 1 )
lo cual es absurdo y demuestra que el potencial externo queda totalmente determinado
por la densidad (excepto en una constante aditiva dado que la suma de una constante
al operador H x deja inalteradas las funciones propias y por tanto la densidad).

Dado que p(r) determina el número total de electrones del sistema a partir de
(2.144) y también fija v (r) según el primer teorema de Hohenberg-Kohn, se concluye
que p(r) determina el hamiltoniano (excepto en una constante aditiva) y la función de
onda del estado fundamental, y por extensión todas las propiedades observables del
estado fundamental, incluyendo la energía cinética de los electrones, la repulsión
coulómbica, etc. En particular, E=E[p]. Así pues, hay una relación directa entre la
densidad y la función de onda a través del potencial externo:
p(r) v (r) - > H (2 .2 2 2 )
p ( r ) <^> ip (2.223)
Es importante señalar que la demostración es únicamente válida para estados
fundamentales no degenerados y siempre y cuando p(r) sea N-representable y v-
representable. Que sea N-representable se refiere básicamente a que p(r) debe ser una
función definida positiva en todo el espacio y que su integral debe ser igual al número
total de electrones del sistema:
p (r) > 0 y Jp{r)dr = N (2.224)
Que sea v-representable significa que existe un potencial externo a partir del cual
puede derivarse la densidad p(r). Esta condición es más difícil de comprobar y, de
hecho, se ha demostrado que existen densidades de prueba razonables que no pueden
derivarse de ningún potencial externo. En los demás casos, las desigualdades (2.219)
y (2.220) no tienen porque cumplirse. Para los casos en que este teorema es válido
tenemos que:
E[p]=TTp]+VJp]+VJp] ( + V J (2.225)
T[p] y V Jp ] son funcionales universales, dadoque no dependen del potencial
externo. Habitualmente se engloban dentro del funcional FHK[p] con lo que:
E v [ p ] = $ p ( j ) v { r ) d r + F Hk
(2.226)
donde Ev[p] indica que para un potencial externo v(r) determinado la energía es un
funcional de la densidad.

Índice
120
Capítulo 2

2.43.2. El segundo teorema

El segundo teorema de Hohenberg y Kohn proporciona el principio variacional


para E[p]. Se puede enunciar de la siguiente forma:

La densidad electrónica de un estado fundamental no-degenerado


puede ser calculada, en principio de forma exacta, determinando
aquella densidad que minimiza la energía del estado fundamental.

O lo que es lo mismo, para una densidad de prueba, p i f ) , que sea v-representable


y N-representable se cumple que:
E 0 < E v[ p ( r ) \ (2.227)
Para demostrar (2.227) aplicaremos el primer teorema de Hohenberg y Kohn a la
densidad de prueba y a la densidad exacta. Según éste, cada una de las dos
densidades definen un hamiltoniano diferente y por tanto una función de onda
correspondiente a este hamiltoniano.
densidad de prueba: p (r ) —>v n (r ) —> H -» ip (2.228)
densidad exacta: p ( r ) —» vn ( r ) (2.229)
Si calculamos la energía para la densidad de prueba con el hamiltoniano exacto nos
queda que:
E v[ p ( f ) ] = k ¡ H ip)>(xp H (2.230)
donde Eoes la energía exacta del estado fundamental considerado y la desigualdad que
aparece en (2.230) es una consecuencia del principio variacional. Así pues hemos
demostrado (2.227) con lo que hemos obtenido un principio variacional para la
energía en el marco de la DFT. Este principio asegura que cualquier densidad de
prueba da una energía superior o igual a la energía exacta del estado fundamental. Así
pues para obtener la densidad exacta del estado fundamental, tendremos que encontrar
la densidad que minimiza la energía:

= 0 (2.231)
Sp

2.43.3. Formulación de Levy restringida

La formulación de Levy restringida (Levy, 1982) es una prueba más de que


existe una relación biunívoca entre la densidad y la función de onda del estado
fundamental. La principal ventaja sobre el primer teorema de Hohenberg y Kohn es
que en esta formulación no se requiere que la densidad sea v-representable.
Además la demostración se extiende también para estados fundamentales
degenerados. Para ello, se parte del conjunto de funciones, [que integran po,
Índice
121
Capítulo 2

que es la densidad exacta del estado fundamental, Wo . Por principio variacional:

7p H xl>Po) > \ ' P o H y o ) = E 0 (2.232)


Po

por lo que:
ip T + V„. ■Vo)+ J P o ( r ) v n(r)dr
Po

(2.233)
Dado que M*, y conducen por integración a la misma densidad po, los términos
de interacción electrón-núcleo a cada lado de la desigualdad son idénticos, y por tanto:

Po
T + V„. x¡) Po]> \Vo T + K, (2.234)

Así pues, del conjunto de funciones de onda que por integración dan pQ,\p p }, la
es la que minimiza el valor esperado de T + Vée. Es, por tanto, posible determinar
únicamente a partir del conocimiento de po, por minimización restringida dentro
del conjunto {p p }del valor esperado de f + Vee:

F HK[p]= Mín (ip T + V ip (2.235)

En consecuencia, se demuestra que hay una correspondencia biunívoca entre po y W,


sin necesidad de pasar por v(r), lo que representa otra prueba del primer teorema de
Hohenberg y Kohn, pero sin la restricción de que po sea v-representable. La única
condición es que po sea N-representable, pero esta condición es más fácil de cumplir
dado que sabemos en qué condiciones una densidad es N-representable.

Por otro lado, los estados degenerados dejan de ser un problema dado que en la
búsqueda restringida nos limitamos a una de las funciones degeneradas, la que
corresponde a la densidad que nos interesa. Para dos estados degenerados con Wí y
W2 tendríamos:
(2.236)
P i { r ) - ^ v n( r ) ^ H ^ x p 2 (2.237)
En la formulación de Hohenberg y Kohn, no se puede establecer la relación biunívoca
directamente entre pí y puesto que al pasar por un potencial idéntico, ésta se
pierde. En la formulación de Levy restringida esto sí es posible dado que restringimos
la minimización al conjunto de funciones W que por integración dan p 1 (entre las
cuales precisamente no se encuentra W2 dado que por integración da p^, y por tanto,
esta formulación permite generalizar el primer teorema de Hohenberg y Kohn a
estados fundamentales degenerados.

Índice
122
Capítulo 2

2.4.3.4. Extensión a estados excitádos

La demostración de la validez de la DFT para el estudio del estado excitado más


bajo en energía de una determinada simetría y/o espín, es semejante al casó anterior
(Parr, 1989). Sólo se requiere restringir el conjunto de funciones de prueba que se
utilizan en el procedimiento variacional a funciones de la simetría y la multiplicidad de
espín adecuadas. A través de la minimización de la energía se llega al estado más bajo
en energía de aquella simetría y multiplicidad. Utilizando los mismos argumentos que
en el caso anterior v partiendo del conjunto de funciones de simetría k que por
integración dan px, |p ^ }, la obtención de la función de onda asociada a la densidad
px requiere la minimización restringida de:
F hk [ p] = M ín L f + V eU ) (2 .238)
PA

2.4.3.S. Ecuación fundamental

La minimización del funcional de la energía con respecto a la densidad


electrónica, 6 EVM-o. debe ser realizada asegurando la conservación de la N-
representabilidad durante el proceso de optimización. Esto se hace introduciendo la
restricción j *p( r ) dr - N = 0 mediante el método de los multiplicadores
indeterminados de Lagrange. Para ello se construye la función:
E v\ p ] - n \ f p ( r ) d ? - N \ (2.239)
donde ¡x es el coeficiente indeterminado de Lagrange y posee el significado de un
potencial químico como veremos más adelante. A continuación seminimiza:
^ t^ v [ p ] - p (? )d r - N )J= 0 (2.240)
con lo que a partir de la definición del diferencial de un funcionaldada en (2.213) nos
queda:

f 6¿p ( ^ óp óp =0 (2.241)

y reagrupando:

(2.242)
1 ^ (0 J
lo que proporciona la condición de minimización restringida y permite obtener el
valor de u en el mínimo:

(2.243)

Índice
123
Capítulo 2

La ecuación (2.243) recibe el nombre de ecuación fundamental de la teoría del


funcional de la densidad.

2.4.4. El método de Kohn y Sham

La ecuación anterior nos da una fórmula para minimizar la energía y determinar


así la densidad del estado fundamental. El problema que presenta es que no se conoce
con exactitud la expresión que relaciona FHKcon la densidad. En particular la forma
exacta de T[p] no se conoce con suficiente precisión. Por el contrario, la energía
cinética se calcula fácilmente si se conoce la ty. Basándose en la expresión de T[xp]
para una función monodeterminantal, Kohn y Sham (Kohn, 1965) propusieron un
método ingenioso para calcular la energía a partir de la densidad electrónica.

Para ello utilizaron como sistema de referencia un sistema de N electrones que


no interaccionan entre ellos moviéndose bajo un potencial externo vs(r). Este
potencial posee la propiedad de que aplicado al sistema genera una función de
onda, aps, que tiene la misma densidad que la del sistema real. En este sistema los
electrones no interaccionan entre ellos aunque sí presentan interacciones
coulómbicas con los núcleos. Para este sistema ideal, el método HF es exacto dado
que al no haber interacciones electrón-electrón, la aproximación orbital que
conduce a las ecuaciones HF proporciona el resultado exacto. El hamiltoniano de
este sistema sólo contiene los términos monoelectrónicos:

(2.244)

La función de onda exacta de este sistema es el determinante de Slater:

(2.245)

Los orbitales moleculares de este determinante se obtienen por resolución de las


ecuaciones de HF:

(2.246)

La densidad exacta y la energía cinética exacta para este sistema son, respectivamente:
N,
(2.247)

(2.248)

La ecuación fundamental de la DFT, ecuación (2.243), que caso de resolverla daría


como solución la densidad (2.247), es para este sistema:

(2.249)
óp( r ) óp(r)
Índice
124
Capítulo 2

con:

E v\ p \ = ^ i = Ts [ p \ + S P ( f ) v s (?)dr (2.250)

Pasemos ahora al sistema real en el que los N electrones interaccionan. En este


caso, la ecuación de la energía Ev[p] tiene la forma:
(2.251)
La energía cinética exacta para el sistema real T[p] y la correspondiente al sistema de
referencia T[p] son diferentes. La energía cinética exacta se reduce a (2.248)
únicamente en el caso en el que la solución HF sea exacta. Vamos a efectuar una
partición de la energía dada por (2.251) de la siguiente manera:
E ,\p ]-T ,\p ]+ ¡P (r> Á f¥ r + J W + (JÍp ]-T ,[p } + <yJj>yj\p\(2.TS2)
En esta ecuación, T [p] es la energía cinética de los electrones en un sistema que tiene
la misma densidad que la del sistema real, pero en el que las interacciones electrón-
electrón están desactivadas. Por su lado J[p] es la energía de repulsión coulómbica y
viene dada por:

(2.253)

El término Tc[p]=T[p]-T[p] es la diferencia entre la energía cinética del sistema real y


la del sistema de referencia y recibe el nombre de energía cinética de correlación. Por
último, el término Wxc[p]=Vee[p]-J[p], es la energía de correlación-intercambio de la
parte electrónica. Estas dos últimas contribuciones, se suelen agrupar en un sólo
término, Exc[p], que es la denominada energía de correlación-intercambio total:
E XÁ P ] ~ ( T\ p] ~ 7-,[p])+ ( V „ [ p \ - J \ p i - T c \ p } + W * c \p \ (2-254)
En Exc[p] están contenidas todas las contribuciones a la energía para las que no
tenemos una expresión sencilla en función de la densidad electrónica. En particular,
en Exc[p] encontramos la energía de intercambio, la energía de correlación, la porción
de energía cinética necesaria para corregir T[p], y la corrección a la auto-interacción
introducida al calcular la repulsión electrónica a partir de la expresión (2.253). De
forma equivalente a como habíamos expresado Wxc[p] en (2.211), tendremos que para

(2.255)
Con estas consideraciones la ecuación de la energía (2.251) nos queda:

La aplicación de la ecuación fundamental de la DFT a (2.256) nos lleva a:

Índice

125
Capítulo 2

Definiendo el potencial de Coulomb como:

V„ (r ) + f t ~ ~ ~ t dr2 = (p(r) (2.258)


J l'i ~ r2\
y el potencial de correlación-intercambio según:
, , ÓEyjp]
"xcin - (2.259)
Sp(r)
llegamos a:

óp(r ) + (<KO + v*c (r )) = f-1 (2.260)

o bien:

^ M + v ^ ( r ) = íi (2.261)
óp ( r )
Comparando (2.261) con (2.249) podemos concluir que la ecuación a resolver para un
sistema de electrones con interacción es la misma que para un sistema de electrones
sin interacción sometidos a un potencial veff(r). En consecuencia, la solución a la
ecuación (2.261) es la misma que para (2.249), cambiando vs(r) por veff(r). Las
ecuaciones a resolver con:

veff (?) = v„ (F) + r p ^ r r dr2 + vxc (r ) (2.262)


'ri r 2
serán pues:
hKsX =£,% (2.263)
^ 1
(2.264)
^KS = _ 2 y 2 + V *ff ^ ; (X i IX ¡) =
Estas ecuaciones son muy similares a las ecuaciones HF en (2.33). Los orbitales que
aparecen en (2.263), llamados orbitales Kohn-Sham, permiten el cálculo inmediato de
la densidad electrónica a partir de:
N oc
P( r ) = y \ X i ( r f (2-265)

Al igual que en el método HF, en el procedimiento de resolución se parte de un


conjunto de orbitales moleculares de prueba, {%¿(r)} , con los que se determina la
densidad electrónica utilizando (2.265). Esta densidad a su vez sirve para poder
obtener vefl(r) a partir de (2.262), y solucionar a continuación la ecuación de valores y
funciones propias (2.263). Este proceso debe repetirse hasta llegar a la convergencia.

Analicemos brevemente algunas de las consecuencias que se pueden derivar de las


expresiones anteriores. En primer lugar, es importante señalar que en veff(r) todo es
conocido excepto vxc(r). Es de esperar que la densidad electrónica p(r) se aproxime a
la densidad exacta a medida que vxc(r) se acerca al potencial de correlación-
Índice

126
Capítulo 2

intercambio exacto. En este sentido, DFT tiene potencialmente la capacidad de


incorporar toda la energía de correlación, a diferencia de HF. A pesar del diferente
enfoque de partida, la semejanza entre los métodos HF y DFT es destacable, y de
hecho sustituyendo Exc[p] en la ecuación (2.256) por la expresión del intercambio HF
se obtiene la misma expresión de la energía en los dos métodos. Existen, sin embargo,
diferencias fundamentales entre los dos métodos. Así, mientras que en DFT
utilizamos un hamiltoniano aproximado, pero la densidad electrónica final es
potencialmente exacta (en otras palabras la única fuente de error en la teoría es el uso
de un vxc(r) aproximado), en HF es justamente al contrario. El hamiltoniano usado es
el exacto, pero un determinante de Slater como función de onda para un sistema
polielectrónico es siempre una solución aproximada. Por último es interesante señalar
que si se utiliza el determinante de Slater construido a partir de los orbitales Kohn-
Sham para calcular la energía con el hamiltoniano exacto, por el principio variacional,
la energía que se obtiene (E1^) es siempre más positiva que la que se obtiene a nivel
HF (Baerends, 1997). La energía de correlación en DFT definida como Ec=Eexacta-EKS
es siempre más negativa (mayor en valor absoluto) que la energía de correlación a
nivel HF definida por (2.56), tal como puede apreciarse esquemáticamente en la
Figura 2.2.
r KS KS
H

E hf = ( w hf H W hf

C,KS

Figura 2.2. La energía de correlación es mayor en valor absoluto en DFT que en HF.

En la práctica, la resolución algebraica de las ecuaciones Kohn-Sham se realiza


utilizando la aproximación LCAO. Las ecuaciones (2.34) a (2.46) continúan siendo
aplicables con la única diferencia que hay que sustituir el operador de Fock por el
operador Kohn-Sham.

Hay otra diferencia importante a remarcar entre los métodos HF y DFT. En HF se


minimiza la energía respecto a los coeficientes de la expansión LCAO manteniendo
los orbitales ortonormalizados con los coeficientes indeterminados de Lagrange e.. En
este proceso tienen significado físico los orbitales moleculares y las energías e¡ de
estos orbitales. En DFT se minimiza el funcional de la energía con respecto a la
densidad con la restricción de que la integral de la densidad sea el número total de
electrones. En este caso sólo la densidad electrónica y \x, que es el coeficiente
Índice

127
Capítulo 2

indeterminado de Lagrange que se utiliza en la minimización restringida, tienen


significado físico. No tienen significado físico estricto ni los orbitales moleculares
Kohn-Sham que se utilizan para expandir la densidad, ni las e. asociadas a estos
orbitales. Tampoco la función de onda ni su cuadrado tienen significado físico
estricto, y de hecho, W*3, al ser un determinante de Slater, nunca puede ser la función
exacta de un sistema polielectrónico. es una función de onda que pertenece al
conjunto ^ ¥ p [de funciones cuya integral es p. Aún así, incluso en el caso en que
vxc(r) fuera el exacto y la solución p(r) también fuera la exacta, sería sólo una
aproximación, y no demasiado buena, a la función de onda exacta. Por esta razón, no
es demasiado correcto utilizar esta para calcular valores de observables, aunque se
usa de forma habitual para tener una estimación de S 2. Existe un único caso en el
que las e. asociadas a los orbitales Kohn-Sham tienen significado físico, y es en el
caso de la energía del HOMO que tal como prueba el Teorema de Janak (Janak, 1978)
es directamente el potencial de ionización exacto cambiado de signo. A pesar de lo
dicho no hay que descartar los orbitales Kohn-Sham para estudios de reactividad,
dado que se ha demostrado que la forma, simetría y orden energético de estos
orbitales coincide con la de los orbitales HF (Strowasser, 1999).

2.4.5. Conceptos químicos

Usando el lenguaje de la DFT es posible definir de forma rigurosa y cuantificar


conceptos clásicos muy ligados a la estructura y reactividad química como son el
potencial químico, la dureza y las funciones de Fukui, en lo que se denomina la DFT
conceptual (Parr, 1989). Esto ha sido posible, como veremos a continuación, por el
papel central que juegan la densidad electrónica y el número de electrones en esta
teoría.

Dado que el hamiltoniano de un sistema depende sólo del número de electrones y


del potencial externo, tenemos que E=E[N,v]. Diferenciando obtenemos:
fdE_\ J SE \ dv(r^dr
dE = | — | dN+C\ (2.266)
m v J <5v(r)
A su vez, hemos demostrado en el apartado 2.4.3 que E=Ev[p], El diferencial de la
energía puede escribirse entonces:
í SF \ - S SE \ ^
dE = f — — óp (r )d r + f — — Óv (r ) d f (2.267)

De la ecuación fundamental de la DFT, tenemos que:


6 E v[ p ]
=£-= = fx = constante (2.268)
óp(f)
y diferenciando (2.144) obtenemos:
Índice

128
Capítulo 2

d N =f S p ( r ) d r (2.269)
Sustituyendo (2.268) y (2.269) en (2.267) llegamos a:
SE \
(2.270)

La comparación de (2.270) con (2.266) nos lleva a una nueva definición para ¡x:
SE \ (dE\
br?=\
váp(O Jv =h d =
\ d N )v
(2-271)
La ecuación (2.271) nos dice que u=n[N,v] es la derivada de la energía respecto al
número total de electrones. Nos indica cómo cambia la energía al variar el número de
electrones, y de ahí que reciba el nombre de potencial químico, dado que esta
definición es análoga a la del potencial químico en termodinámica clásica.

Si tomamos la ecuación (2.251) y analizamos como se modifica la energía al variar


el potencial externo manteniendo p(r) constante, nos queda:
dE = J p( r )8 v( r) d r (2.272)
Si hacemos lo mismo a partir de (2.267) tendremos:
6E
dE óv(r^)dr (2.273)
= / ó v (r)J
Comparando (2.272) y (2.273) vemos que:
‘ SE \
p(7) = Sv{r)/
(2.274)

Esta ecuación, introducida en (2.270), nos lleva a la llamada ecuación fundamental


del cambio químico, que es una ecuación básica para analizar aspectos diversos de la
reactividad química:
dE = ¡X • d N + J*p ( r ) •<5v(r) •dr (2.275)

Diferenciando u[ N.v] tenemos:


dfx \ Ó/i \
du =
dN
dN +
/I ó v (r)
óv( r) dr (2.276)

Definiendo las siguientes funciones:


I/a/*'
V = (2.277)
dN Jv

dpi \ ( 5 2E \ dP ( r ) \
{ ó2£ ) (2.278)
f( ñ - [Óv(r)dN j K8 N 6 v ( r ) J
I m o JN dN Jv
se llega a:
Índice
129
Capítulo 2

d\x = 2r)dN + J f ( f ) ó v ( f ) d r (2.279)


que nos indica cómo varía el potencial químico frente a un cambio en el número de
electrones y en el potencial externo. La función r\ recibe el nombre de dureza, y f(r)
es la función de Fukui. Tal como veremos a continuación, el potencial químico, la
dureza y la función de Fukui son herramientas muy útiles en el análisis de la
reactividad química.

2.4.5.1. El potencial químico

Partiendo de la ecuación (2.271) y haciendo la derivada a potencial externo


constante por diferencias finitas se encuentra que:
/ae\ e e(n + i ) - e (n - i ) (e (n ) - a ) - { e (n ) + i )
[dN ) v AN (N + Í ) - { N - 1 ) 2

* (2-281)

donde A es la afinidad electrónica e I el potencial de ionización de nuestro sistema.


Este potencial químico, cambiado de signo, no es más que la definición original de
Mulliken para la electronegatividad. Dentro de la aproximación de Koopmans:
+ £ H O M O + £ LUMO /o o o o x
“ M = X m = — ”— = ----------- 2--------- KL2^ l )
Para una reacción cualquiera entre un sistema i y otro sistema j, en el supuesto de que
el potencial externo se mantenga constante y para transferencias de carga, AN,
pequeñas, la ecuación fundamental del cambio químico nos lleva a:
AE = /¿AN (2.283)
para cada sistema. Dado que en una reacción AE=AE.+AEj, en el supuesto que AN.=-
AN.=AN>0 tenemos que:
AE = - (áj )AN (2.284)
En estas condiciones la reacción es exotérmica si el potencial químico \jl es mayor que
[x., y por tanto, si la electronegatividad de i es mayor que la de j. En definitiva, desde
un punto de vista energético, se favorece que haya una transferencia de carga desde el
sistema de mayor potencial químico o menor electronegatividad, al de menor
potencial químico o mayor electronegatividad. El potencial químico es pues una
medida de la tendencia que tienen los electrones a escapar del sistema. Una diferencia
de potencial químico grande entre dos sistemas favorece la transferencia electrónica.

Índice
130
Capítulo 2

2.4.5.2. La dureza

A partir de las ecuaciones (2.277) y (2.271) se llega a la definición operativa de


dureza como la derivada segunda de la energía respecto al número de electrones a
potencial externo constante:

(2.285)

La gráfica de la energía respecto al número total de electrones para cualquier


sistema (considerando el número de electrones como una variable continua) es una
función cóncava. A potencial externo constante, la pendiente en el punto N nos da el
potencial químico, mientras que la curvatura en este punto es la dureza. La dureza
puede ser considerada pues como una medida de la resistencia a la transferencia de
carga. Variar el número de electrones en un sistema duro (curvatura alta de E frente a
N) va a ser costoso energéticamente y por tanto este sistema tendrá poca tendencia a
dar o aceptar electrones. La aproximación de diferencias finitas aplicada en este caso
lleva a:
I - A £
(2.286)

La ecuación (2.286) nos muestra que la dureza no es más que la diferencia energética
entre HOMO y LUMO. Es previsible que, en general, una diferencia energética
grande corresponda a sistemas estables y poco reactivos, mientras que cuando la
diferencia de energía HOMO-LUMO sea pequeña es de esperar que el sistema sea
poco estable y altamente reactivo.

Ligados a la dureza hay dos principios de reactividad de gran importancia. El


primero es el principio de máxima dureza que afirma que un sistema a potencial
químico, temperatura y potencial externo constantes tiende a un estado de máxima
dureza. El segundo es el principio HSAB (Hard-Soft-Acid-Bases) que dice que ácidos t
duros prefieren bases duras y ácidos blandos prefieren bases blandas.

2.4.S.3. Funciones de Fukui

La definición dada en la ecuación (2.278) de la función de Fukui nos dice que ésta
se puede interpretar o bien como una medida de la sensibilidad del potencial químico
de un sistema ante un cambio en el potencial externo, o bien como una medida de
cómo varía la densidad electrónica al aumentar el número de electrones del sistema.
Esta última definición:

permite demostrar fácilmente que la función de Fukui está normalizada:


(2.288)

Índice
131
Capítulo 2

A partir de (2.287) y utilizando una vez más la aproximación de diferencias finitas se


pueden definir tres tipos de funciones de Fukui. La f (r) se define según:

/* (? )« ^.V+Jlr 1 /\ v " !‘f.iíMO í2-289)


y nos da la región del espacio en la que se localiza la carga cuando el sistema adquiere
un electrón. Es una buena medida de la reactividad de nuestro sistema frente a un
nucleófilo y en primera aproximación es la densidad electrónica del LUMO. Por su
parte, la f (r) es una medida de la reactividad frente a un electrófilo:
Pn ^ - P n - i ^ (?) (2-290)
r(f) - = PN (r) ~ PN _A(r) ^ p
N-N+l HOMO
Finalmente f (r) es la media de las dos anteriores y nos da la reactividad frente a un
ataque radicalario:

f°(ï)4[r(r)+ f-(r)]4[p 0 . LUMO (r)+ p HoMoir )l


2*- N + 1
(2.291)

(a) (b)

Figura 2.3. Dibujo del contorno de 0.01 u.a. de las funciones de Fukui (a) f y (b) f
para la molécula de formaldehido.

El nombre de función de Fukui es apropiado para f(r) puesto que se trata


evidentemente de un índice de reactividad relacionado íntimamente con la teoría de
los orbitales frontera. La Figura 2.3 representa las funciones f(r) y f(r) para el
formaldehido. La forma de f (r) recuerda la forma del orbital LUMO jc antienlazante.
Frente a un nucleófilo, como el grupo hidroxilo, el ataque se producirá
preferentemente sobre el átomo de carbono dado que sobre este átomo la función de
Fukui f (r) presenta una mayor densidad.

Índice
132
Capítulo 2

2.4.6. Aproximaciones al potencial de correlación-intercambio

Como se ha visto en el apartado 2.4.4, un aspecto básico dentro de la DFT es


disponer de un buen potencial de correlación-intercambio. Las ecuaciones (2.255) y
(2.259) nos dan la relación existente entre el potencial de correlación-intercambio y la
energía de correlación-intercambio. Por su parte las ecuaciones:
(2.292)

(2.293)
dp( r ) dp( r )
relacionan la energía y el potencial de correlación-intercambio total con la energía de
correlación intercambio por partícula, bxc, y con la energía de correlación-intercambio
por unidad de volumen, exc.

Para poner en práctica esta teoría, precisamos de buenas aproximaciones a la


energía de correlación-intercambio. La aproximación más simple y a la vez
tremendamente útil es la aproximación de la densidad local (LDA). En el siguiente
nivel se encuentran las llamadas aproximaciones de gradiente generalizado (GGA).
Estos dos tipos de aproximaciones son las que se discuten a continuación.

2.4.6.1. Aproximaciones de la densidad local (LDA)

En esta aproximación exc[p] es un funcional que depende exclusivamente de la


densidad. Las contribuciones a la correlación y al intercambio se suelen tratar
separadamente:
(2.294)

Para la parte correspondiente al intercambio, se toma como modelo el gas de


electrones de densidad homogénea y constante p(r). Para este modelo la ecuación
(2.295) con a=2/3 nos da la energía de intercambio por partícula (Slater, 1974):

(2.295)

con lo que:
4

(2.296)

y:

(2.297)

Índice
133
Capítulo 2

Para la energía de correlación por partícula existen varias posibilidades. El llamado


método X« toma £c[p]=0 y a=2/3. Más sofisticada es la expresión analítica de Vosko,
Wilk y Nusair (Vosko, 1980) desarrollada a partir de la interpolación de un conjunto
de valores de energías de correlación obtenidos por Ceperley y Alder a partir de
cálculos Monte Cario.

La aproximación LDA funciona muy bien en sistemas en los que la densidad se


mantiene aproximadamente constante. Para átomos y moléculas donde las variaciones
de la densidad son importantes se aplica la aproximación de gas de electrones
uniforme a porciones infinitesimales (Figura 2.4). Aún así, y por razones bien
estudiadas, la aproximación LDA funciona razonablemente bien en estos casos.

Figura 2.4. La aproximación LDA aplicada a un diferencial de volumen alrededor del


punto r r

2.4.6.2. Aproximación de la densidad de espín local (LSDA)

En sistemas de capa cerrada la densidad a y la densidad (3 coinciden y no es


necesario minimizar las dos densidades por separado. Sin embargo, para sistemas de
capa abierta, las dos densidades son diferentes. En este caso el método correcto para
tratar estos sistemas consiste en resolver las ecuaciones para las densidades a y (3 por
separado. Se trata de un método equivalente al método UHF desarrollado en el
apartado 22.2.2, y de hecho este método se conoce también por método unrestricted
Kohn-Sham (UKS). La efcuación que resulta para la energía correspondiente a la
densidad a es:
£ , [ p “ ] - T,[p- ] + / p " ( ? )v, ( f ) d ? + j [ p ° , p e ]+ E xc[ p ° , p " ] (2.298)

Índice
134
Capítulo 2

donde la energía cinética y la energía de intercambio dependen exclusivamente de los


orbitales Kohn-Sham de tipo a, mientras que la energía de repulsión coulómbica y la
energía de correlación tienen dependencia de la densidad a y de la densidad p según:

-V (2.299)
2 Xi
2
T*[p a ] = % \ Xi

j[pa,pg]= -íTP + - j TP ^ P^ drxdr2 (2.300)


^ Ki“ r2 |
(2.301)

(2.302)

\p°, p f ]. Jp" (?K\ p ‘ , P "]dr (2.303)

Ecuaciones equivalentes se pueden desarrollar para la parte |3. La energía de los


electrones a y la de los (3 se minimizan por separado, aunque no de forma
independiente, dado que en las ecuaciones correspondientes a la energía de los
electrones a necesitamos la densidad (3, y al revés. Las ecuaciones a resolver son:
E V[ P \ - ^ { C p a ( 7 ) d 7 - N a \ = 0 (2.304)

E v[ p P ^ ( j ' p p (r)dr - N p ) = 0 (2.305)

2.4.6.3. Correcciones de gradiente generalizado a la energía de correlación-


intercambio (GGA)

En la aproximación LDA se asume que los efectos de correlación-intercambio son


locales y dependen únicamente del valor de la densidad electrónica en cada punto. En
general, los métodos LDA proporcionan resultados sorprendentemente buenos, sobre
todo si uno considera la simplicidad del modelo en que se basan. Con los métodos
LDA, se obtienen buenas geometrías, aunque las distancias de enlace aparecen algo
subestimadas, buenas frecuencias vibracionales, y densidades de carga razonables,
excepto en las regiones cercanas al núcleo. Sin embargo, no son adecuados ni para
tratar sistemas con enlaces débiles ni para realizar predicciones termoquímicas fiables.
Estos métodos tienen una tendencia general a exagerar la fortaleza de los enlaces,
sobrestimando la energía de enlace en un 30% aproximadamente.

El siguiente paso consiste en introducir gradientes de la densidad en la descripción


de los efectos de correlación-intercambio. De esta forma se tiene en cuenta el valor de
la densidad en cada punto y como varía esta densidad alrededor de cada punto. Se
debería hablar de una corrección semilocal más que no local, en el sentido de que la
energía de correlación-intercambio por unidad de volumen sigue dependiendo
Índice
135
Capítulo 2

únicamente de la densidad y de la derivada de la densidad en cada punto. Bajo esta


aproximación, resulta:
E ™ \phff(fi,V p)dr (2.306)
Se intenta en estos métodos modificar la energía de correlación-intercambio LDA
para que esta tenga un comportamiento asintótico adecuado y también propiedades de
escalamiento correctas. Por lo que se refiere al comportamiento asintótico de la
comparación de las ecuaciones:
E x [ p ] = J p ( r ) e x ¡p]dr (2.307)

E x [p]= \ f p ( f i d72 (2.308)

se tiene que:

£x I

Tomando el límite cuando r=|r 1-r2| tiende a infinito, donde se puede considerar que el
denominador de (2.309) se mantiene constante en una primera aproximación, y
utilizando la regla de la suma (2.198), se ve que el comportamiento asintótico exacto
de la energía de intercambio es:

limex [ p \ = ~ (2.310)
r->oo 2r

La corrección de gradiente generalizado de Becke (Becke, 1988) a la energía de


intercambio constituye un ejemplo interesante a analizar. Hay que decir que la
principal fuente de error de los métodos LDA se encuentra en la energía de
intercambio que suele estar subestimada en un 10-15% aproximadamente. La
propuesta de Becke consiste en añadir un término de corrección a la expresión LDA
dada por las ecuaciones (2.295)-(2.297) para el intercambio. Así:
e f ‘H - i r w * s r w (2311)
en donde el término de corrección tiene la forma:

£ " “ [ f ] - / P I (? )/“ “ W ¿? ’ (2.312)


siendo x, por un lado, un parámetro adimensional que asegura que la integral en
(2.312) tenga unidades de energía, y por otro, un parámetro dependiente del gradiente
de la densidad para poder introducir los efectos de gradiente:
M
(2.313)
P3
Comparando las ecuaciones (2.312) y (2.292) se tiene que:

£xLDA[p]=P~3( r ) f NlDA(x) (2.314)


Teniendo en cuenta el comportamiento asintótico de la densidad:
Índice
136
Capítulo 2

lim p ( r ) = e~ar (2.315)


r-» oo

se demuestra fácilmente que en el límite la energía de intercambio definida por


(2.295) es:
li m e L
xDA= O (2.316)
r-»oo

Como yahemoscomentado este no es el comportamientoasintóticoexacto para la


energía decorrelación. Sepuede corregir este comportamiento através de(2.311) y
(2.312) tomando cualquiera de las siguientes funciones:

f NLDA(x) = f NU>A(x) = ------- f— ----- ; f NmA(x) = ---------- ............ -


61nx 1+ 6/3xln x 1 + 6 fixsinh x

(2.317)
Para cualquiera de estas tres funciones se puede demostrar a partir de (2.314) y
teniendo en cuenta (2.315) que poseen el comportamiento asintótico correcto dado por
(2.310). Sin embargo, Becke mostró que la última con (3=0.0042 es la que da el mejor
ajuste respecto a densidades de intercambio exactas para una serie de átomos.

Además de la corrección de Becke para el intercambio existen otras muchas


correcciones de gradiente generalizado tanto para la parte de intercambio como
para la parte de correlación. Para el intercambio la corrección más habitualmente
usada es la de Becke. Para la parte de correlación quizás las más aplicadas son las
de Perdew (Perdew, 1986) y las de Lee, Yang and Parr (Lee, 1988).

Con las correcciones GGA se mejoran las geometrías, las frecuencias y las
densidades de carga LDA. Se obtienen errores promedio de 6 kcal/mol en tests
termoquímicos y funciona razonablemente bien para sistemas con enlaces por
puente de hidrógeno, aunque continúa fallando en la descripción de complejos de
van der Waals.

La mejora de los potenciales o energías de correlación-intercambio es un campo


de investigación muy activo en la actualidad. Se siguen distintas vías para
conseguir este objetivo. Una posibilidad es modificar los potenciales de
correlación-intercambio para que éstos y sus derivadas cumplan todas las
propiedades asintóticas y de escalamiento conocidas. También son muy
prometedoras las técnicas que a partir de una densidad exacta o muy precisa
permiten determinar el potencial de correlación-intercambio que las genera. El
estudio de potenciales vxc generados de esta forma puede ayudar a obtener
expresiones perfeccionadas. De igual forma se ha considerado, sin demasiado
éxito, la posibilidad de introducir en la expresión de la energía de correlación-
intercambio la laplaciana de la densidad. Finalmente también se ha explorado la
introducción del intercambio exacto en las expresiones de la energía de
correlación-intercambio en lo que se conoce con el nombre de métodos DFT
híbridos que son los que se tratan a continuación.

Índice

137
Capítulo 2

2.4.6.4. La conexión adiabática. Métodos híbridos

La existencia de métodos híbridos en los que se incluye parcialmente intercambio


exacto procedente de un cálculo HF se puede justificar a través de la denominada
fórmula de conexión adiabática para la energía de correlación-intercambio. Para ello
se considera un sistema que presenta una interacción bielectrónica X/r12. Para este
sistema se ajusta un potencial externo vsk(r) para que para cualquier valor de k , se
obtenga la densidad p(r) correspondiente a k=l. k recibe el nombre de constante de
acoplamiento integral. k=0 corresponde a un sistema sin interacciones electrón-
electrón, mientras que para un sistema con electrones que interaccionan a través de un
potencial coulómbico, k= 1. El parámetro k conecta de forma continua el sistema
modelo sin interacciones electrón-electrón con el sistema real. El hamiltoniano y la
energía para el sistema con interacción bielectrónica X/r12se pueden expresar según:
N i N N N y
H x = - W ( i )+y ^ ( i )+y y ± (2.318)
7=1 j >i • ij

H ‘r (2.319)

La energía para el sistema con k=0 viene dada por:


£ ( ° ) = Ts [ p ] + J p ( r ) v s (r)dr (2.320)
y para k= 1 por:

E ( 1) = Ts [ p ] + J p ( f ) v n (r ) dr + —J j * p zr drldr2 + E xc [p ] (2.321)

Restando estas dos últimas ecuaciones se obtiene:


• P ( Á ) p ( r 2)
Exc[ p]= E Q) ~ E (°) + f P(r)(vs( r ) - v „ (r))dr - 1 J J ^ } dr,

(2.322)
Por otra parte, el teorema de Hellmann-Feyman nos permite escribir:
dE dH ‘
-íp dr (2.323)
dk J ' dk
por lo que utilizando la derivada respecto a A. de (2.318):
dE dHx , A \ , X
= (ip' 1P' (2.324)
dk dk / =\ dk I J> 1 r ¡j

Dado que:
1 dEx
f ^ - d k =E(l)-E(0) (2.325)
Jn d k
y sustituyendo (2.323) en (2.325) y haciendo uso de (2.207) que nos da el valor
esperado de un operador bielectrónico en función de la densidad bielectrónica
llegamos a:
Índice

138
Capítulo 2

\dE
m - m ■dÁ = I (xi)'' , - j p <2 3 2 6 >
^ dk
Sustituyendo (2.187) en la ecuación anterior tenemos:

(2.327)
Integrando respecto a X:

J 2JJ r12 2JJJ rn


(2.328)
Finalmente sustituyendo (2.326) en (2.322), se llega a:

Ex \ p ] ~ ± f f f P M P *c( r " r2)dF,dr1dA - y ' j p ( r ) v i c ( r ) J f dX (2.329)

que, utilizando (2 .2 1 1 ), puede escribirse como:


i
E xc Ift ] = f W xc \_P (2.330)
o
Esta expresión constituye la fórmula de conexión adiabática para la energía de
correlación-intercambio, donde, Wxxc[p] es la energía de correlación-intercambio de
la parte electrónica para un sistema con interacción bielectrónica V r12. La energía de
correlación-intercambio total Exc[p] se puede generar por integración a partir de
W \ c[p]. En este sentido, se justifica que Wxxc[p] para X=0 intervenga en la expresión
de Exc[p], y por tanto, se justifica la existencia de métodos híbridos.

La expresión (2.330) puede emplearse para obtener aproximaciones a la energía de


correlación-intercambio. Una primera aproximación propuesta por Becke, consiste en
considerar que Wxxc[p] depende linealmente de X. En este caso:

E x c b ] = \w £ \p \+ \w ¡ ;? \p \ (2.331)

Para A.=0, HF es exacto, por lo que Wx¿.■


“M se toma igual a la energía de
intercambio HF. ^ ^ [ p ] se aproxima mediante una expresión de la energía de
correlación-intercambio ya conocida, como por ejemplo BLYP. El método que utiliza
la ecuación (2.331) se denomina método Half & Half, pero hay otros métodos basados
en la conexión adiabática. Quizás el más usado es el método de los tres parámetros de
Becke (Becke, 1993) en el cual:
jn _ j^ L S D A , / j- .e x a c t j^ L S D A \ , a j ~ ,B 8 8 , a r -,PW91
E x c - E x c + a 0( E x - E x ) + a x & E x + a c&Ec (2.332)
con ao = 0.20, ax = 0.72, y ac = 0.81. Estos valores son los que mejor ajustan los
resultados B3PW91 a un conjunto de datos termoquímicos experimentales.
Índice
Capítulo 2

2.4.6.5. Ventajas e inconvenientes de la teoría del funcional de la densidad

Como principales ventajas que ofrece este método con respecto a HF podríamos
citar: a) se obtienen buenas geometrías, buenos momentos dipolares, excelentes
frecuencias vibracionales, y una buena estimación de la termoquímica y barreras de
reacción con un coste similar al de HF, introduciendo correlación electrónica a un
coste muy reducido; b) la contaminación de espín en cálculos no restringidos UKS es
normalmente inferior a la de los cálculos UHF; c) la densidad DFT presenta
características típicas de las densidades que se obtienen con métodos ab initio de nivel
alto; y d) DFT proporciona excelentes resultados para moléculas tradicionalmente mal
descritas a nivel HF (FOOF, FON, metales de la primera serie de transición...) siendo
el método más utilizado en la actualidad para tratar sistemas organometálicos y
bioinorgánicos.

Como principales inconvenientes hay que citar que trata de forma incorrecta en
general: a) los sistemas con un único electrón (dado que la energía de correlación-
intercambio es diferente de cero); b) sistemas con enlaces débiles como complejos de
van der Waals y complejos por transferencia de carga; y c) disociación de enlaces en
especies iónicas radicalarias en las que la carga y el espín están separados en distintos
fragmentos o localizados en el mismo fragmento. Por otro lado, tampoco hay
demasiada experiencia en el tratamiento de estados excitados y estados claramente
multideterminantales. Con todo, el principal inconveniente de la DFT se encuentra en
el hecho de que, si el potencial de correlación-intercambio usado no da los resultados
esperados, no hay forma sistemática de mejorarlos. No obstante, hay que esperar que,
en el futuro, el trabajo actual de muchos científicos que se dedican a mejorar los
potenciales de correlación-intercambio existentes dé sus frutos y que finalmente el
químico teórico disponga de un procedimiento para mejorar los cálculos DFT de
forma sistemática, pasando por distintos niveles de aproximación.

Índice

140
Capítulo 2

b i b l i o g r a f Ia

BAERENDS, E. J. y GRITSENKO, O. V. (1997): «A Quantum Chemical View o f Density


Functional Theory», J. Phys. Chem. A 101, 5383-5403.
BECKE, A . D. (1988): «Density-functional exchange energy approximation with
correct asympotic behavior», Phys. Rev. A 38, 3098-3100.
BECKE, A. D. (1993): «Density-functional thermochemistry. III. The role o f exact
exchange», J. Chem. Phys. 98, 5648-5652.
CiSEK, J. (1966): J. Chem. Phys. 45, 4256.
FOCK, V. (1930): Z. Phisyk 61, 126.
HARTREE, D. R. (1928): Proc. Cambridge Phil. Soc. 24, 89.
HOHENBERG, P. y KOHN, W. (1964): «Inhomogeneous Electron Gas», Phys. Rev. B
136, 864-971.
JANAK, J. F. (1978): «Proof that dE/dn. in density-junctional theory», Phys. Rev. B 18,
7165-7168.
KOHN, W. y SHAM, L. J. (1965): «Self-Consistent Equations Including Exchange and
Correlation Effects», Phys. Rev. A 140, 1133-1138.
KOOPMANS, T. (1933): Physica 1, 104.
LEE, G, YANG, W. y PARR, R. G. (1988): «Development o f the Colle-Salvetti
correlation energy formula into afunctional of the electron density», Phys. Rev. B 37,
785-789.
LEV Y , M. (1982): «Electron densities in search o f hamiltonians», Phys. Rev. A 26,
1200-1208.
LlNDGREN, I. , MORRISON, J. (1982): Atomic Many Body Theory, Springer Verlag,
Berlin.
PARR, R. G. y Yang, W. (1989): Density Functional Theory o f Atoms and Molecules,
New York, Oxford University Press.
PERDEW, J. P. (1986): «Density-functional approximation for the correlation energy
o f the ihomogenous electron gas», Phys. Rev. B 33, 8822-8824.
POPLE, J. A., BEVERIDGE, D. A. (1970): Approximate molecular orbital Theory ,
McGraw-Hill, New York.
ROOTHAAN, C. C. J. (1951): Rev. Mod. Phys. 23, 69.
ROOS, B. O., Ed . (1992): Lecture Notes in Quantum Chemistry (vols. I y II) 58 y
64. Springer Verlag, Berlin.
SlNANOGLU, O. (1961): Proc. Roy. Soc. (London) A 260, 379; SlNANOGLU, O.
(1962): J. Chem. Phys. 36, 706.
S t r o w a s s e r , A. y HOFFMANN, R. (1999): «What Do the Kohn-Sham Orbitals and
Eigenvalues Mean?», J. Am. Chem. Soc. 121, 3414-3420.
SLATER, J. C. (1974): Quantum Theory o f Molecules and Solids, Volume 4, The self-
consistent field for molecules and solids, McGraw-Hill, New York.
VOSKO, S. H. y otros (1980): «Accurate spin-dependent electron liquid correlation
energies for local spin density calculations: a critical analysis», Can. J. Phys. 58,
1200- 1211.
SZABO, A., OSTLUND, N. (1982): Modern Quantum Chemistry, McMillan, New
York.

Índice
141
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
Capítulo 3. Técnicas computacionales

Juan J. N ovoa3 y A ntonio L argob


aD epartam ent de Q uím ica F ísica and CER Q uím ica Teórica, U niversität de B arcelona
A v. D iagonal 647, 08028-B arcelond
b D epartam ento de Q uím ica Física, F acultad de Ciencias, U niversidad de V alladolid
47005-Valladolid

3.1. IN TR O D U C C IÓ N

En este capítulo se lleva a cabo una descripción de los conocimientos


básicos de programación de ordenadores y de los métodos de cálculo numérico
necesarios para todos los estudiantes que se inician en el campo de la Química
Teórica y Computacional.
Se he elegido como lenguaje de programación el FORTRAN en su
variedad FORTRAN-77, dado que es el más empleado en la actualidad en la
mayoría de los programas. No se ha hecho una descripción exhaustiva de todas las
opciones de dichos compiladores, sino que, deliberadamente, se han descrito sólo
las partes del FORTRAN-77 que más se utilizan. Igualmente, la presentación se ha
hecho de forma progresiva, introduciendo primero los conceptos esenciales y luego
las opciones específicas necesarias para realizar las tareas específicas, pero cuya
introducción en un principio complicaría la comprensión del concepto introducido.
Dado que en las instrucciones FORTRAN-77 existen a veces opciones o
partes de la instrucción que no siempre se emplean, al ser optativas, dichas partes
se han indicado mediante su inserción entre corchetes cuadrados (es decir [ ]).
Con respecto a los métodos computacionales, se han seleccionado los más
utilizados. De cada uno de ellos se describe cualitativamente su fundamento, y el
algoritmo de resolución empleado. A fin de facilitar un conocimiento más
detallado, se dan, para cada método, referencias de donde puede encontrarse una
descripción exhaustiva del mismo .

3.2. PR O G R A M A C IÓ N DE ORD ENA D O R ES

3.2.1 Ordenadores

Un o r d e n a d o r ( a veces llamado c o m p u t a d o r ) es una máquina capaz de


procesar la información siguiendo las instrucciones que le han sido proporcionadas
por el usuario. Al conjunto de instrucciones introducidas al ordenador para realizar

143
Índice
Capítulo 3

una tarea específica se le denomina programa. La información puede ser numérica


o de otro tipo.
Para realizar su tarea los ordenadores constan de dos tipos de elementos: el
hardw are, o elementos físicos tangibles (circuitos, discos, ...), y el softw are,
formado por los programas que hacen gestionar los elementos físicos en la
realización de las tareas. En esencia, el hardware es el soporte electrónico y el
software es el soporte lógico. A pesar de que los ordenadores pueden dar la
sensación al usuario de ser máquinas inteligentes, en el momento actual dicha
inteligencia no es más que el resultado de un programa de simulación de un
comportamiento inteligente: los ordenadores actuales no son capaces de realizar
tareas creativas por la que se obtengan nuevos programas, criterio que se toma
usualmente como necesario para aceptar la existencia de inteligencia.
Dentro del hardware, es posible distinguir varias partes, de acuerdo con las
funciones que ejecutan:
a) CPU (de las siglas en inglés de Central Process Unit), lugar donde se almacena
y procesa la información,
b) memoria central, donde se almacena la información y los programas que va a
procesar la CPU,
c) periféricos de entrada/salida, (teclados, pantallas, ...) que sirven para introducir
en la CPU la información a procesar y los programas con las instrucciones que
el ordenador ha de seguir para procesarla,
d) periféricos de almacenamiento, (discos, cintas, ...) en los que podemos
almacenar de forma permanente la información y programas que se han entrado
al ordenador, antes o después de ser procesados por la CPU.
Dentro del apartado del software, es también posible el distinguir varios
niveles de gestión del ordenador:
a) sistema operativo, lo forman aquel conjunto de programas que se encargan de la
gestión primaria del funcionamiento del ordenador (gestión de memoria, gestión
de las unidades de entrada/salida, comunicaciones, ...),
b) aplicaciones de sistema, constituidas por los editores, compiladores y las
interfaces de usuario (ventanas, ayudas, ...) que gestionan o facilitan la
interacción máquina/usuario,
c) aplicaciones de usuario, es decir, el conjunto de programas que indican el tipo de
tarea específica que se desea realizar.
A fin de realizar una tarea, el usuario habrá de codificar un programa en el lenguaje
que desee. Para ello, ha de usar los editores y compiladores del nivel de
aplicaciones, a la vez que hace uso del sistema operativo para conseguir que los
datos del teclado vayan a la memoria y luego se almacenen en el disco. En ese
sentido, el software puede visualizarse como un conjunto de estratos, en el que el
más inferior es el sistema operativo, el siguiente lo forman las aplicaciones de
sistema, y el último lo forman las aplicaciones de usuario. Es decir, las aplicaciones
de los niveles superiores, por ejemplo un editor, se basan en la existencia de

144
Índice
Capítulo 3

aplicaciones en un nivel inferior de programas que gestionan la correcta


codificación y almacenamiento de la información que le entramos al editor.

3.2.2 Codificación de la información en los ordenadores

Debido a que los circuitos de los ordenadores se han diseñado para ser
capaces de distinguir el paso o no de corriente, toda la información que existe en un
ordenador (datos+programas) se haya codificada de forma binaria, es decir, bajo la
forma de conjuntos de ceros y unos. La unidad mínima de información es un bit
(acrónimo de binary digit), que puede contener un dígito binario (un cero o un
uno). A efectos de su tratamiento más efectivo, la unidad mínima de
almacenamiento es un byte, formado por una serie de 8 bits y representado por la B
mayúscula. El conjunto de 1024 bytes recibe el nombre de kilobyte (1 kB),
mientras que el conjunto de 1024x1024 bytes (aproximadamente 106) bytes es un
megabyte (1 MB), y el de 1024x1024x1024 (aproximadamente igual a 109 bytes)
es un gigabyte (1 GB).
La forma en que se almacena en código binario la información depende del
tipo de información que se quiere guardar:
Números enteros: Traducción de decimal a binaria. Por ejemplo, el 4
decimal equivale al 000100, si se emplean seis dígitos binarios. Esta
representación es exacta.
Números reales: Se representa el número real mediante un par (mantisa,
exponente), y cada parte se representa como si fuese un número entero.
Así, el número real 102.35 tiene la forma (mantisa, exponente) de
+0.10235xl0+3. La mantisa es +10235, mientras que el exponente es +3.
Los dos signos son importantes. Definida la mantisa y el exponente, cada
parte se codifica como un número entero. Esta representación no es
exacta, dado que siempre se pierde precisión en la parte de la mantisa para
números muy grandes o muy pequeños. Esta pérdida de precisión da lugar
a la propagación de errores en los cálculos numéricos.
Números complejos: Se representa como un par (mantisa, exponente) para
la parte real y otro para la parte imaginaria.
Caracteres alfanuméricos: Se guardan carácter a carácter, codificados
como enteros siguiendo el convenio ASCII.
Variables lógicas: Se almacenan en un bit, de forma que el resultado
.TRUE. o .FALSE. se identifica por un 0 o un 1.

La información así codificada, es procesada en su forma binaria en la CPU, una


vez que se traslada a los registros de cada uno de los circuitos lógicos de que

145
Índice
Capítulo 3

consta la CPU. El tipo de procesado a realizar con dicha información se especifica


mediante las instrucciones básicas de que dispone el tipo de CPU de que consta el
ordenador. Hoy en día toda CPU consta de circuitos de suma, resta, multiplicación
y división enteras, además de circuitos para las operaciones con números reales.
Igualmente, dispone de otros circuitos para hacer comparaciones. Para procesar la
información los circuitos aceptan un número reducido de instrucciones. Las
instrucciones deben darse a la CPU escritas en código máquina. Los lenguajes de
alto nivel, como el FORTRAN, permiten llamar a esas instrucciones de forma más
cómoda, dejando que el compilador se ocupe de traducirlo a código máquina y de
las tareas de gestión de memoria y de los detalles de la entrada/salida de
información.

3.2.3 Lenguajes de alto nivel: compiladores

Los lenguajes de alto nivel nos permiten programar el ordenador de una


forma cómoda. A fin de poder usar estos lenguajes de alto nivel, el ordenador
dispone de unos programas traductores de lenguaje de alto nivel a código máquina,
llamados compiladores.
A fin de poder llevar la traducción, el compilador dispone de una tabla de
equivalencias entre el lenguaje de alto nivel y el código máquina. Por lo tanto, la
utilización de compiladores obliga a seguir una serie de reglas que definen como se
han de escribir las instrucciones en el lenguaje de alto nivel (es decir, definen la
gramática del lenguaje de alto nivel). En caso de no respetarse esas reglas, el
compilador da errores de compilación. Los compiladores generan de forma
automática el código máquina adecuado para cada instrucción de alto nivel
presente en la tabla de traducción. Al mismo tiempo, detectan los errores en la
utilización de la gramática y los notifican al usuario para que los corrija. Es
importante remarcar que los compiladores no detectan errores de lógica en el
programa, es decir, aquellos errores que dan lugar a que el proceso no se realice de
la forma adecuada para lograr el tipo de proceso de la información deseado.
Los compiladores emplean a veces programas incluidos en una librería de
programas, como cuando realizan tareas matemáticas especializadas (por ejemplo,
calcular la raíz cuadrada). Esto hace que sea necesario añadir estos trozos de
programa incluidos én las librerías, a fin de poder obtener el código ejecutable del
programa compilado. A esta fase se la denomina montar el programa (en inglés
"link"). Algunos compiladores (como el í l l de la Silicon Graphics) realiza de
forma automática el montaje del programa si no detectan errores de compilación.

3.2.4 Programas y algoritmos


Un programa es un conjunto de instrucciones que se desea que ejecute el
ordenador. Dichas instrucciones se ordenan de forma adecuada para que el

146
Índice
Capítulo 3

resultado de la ejecución sea la realización de la tarea deseada. Las instrucciones


del programa plasman en lenguaje de alto nivel el algoritm o que el usuario
selecciona para realizar la tarea buscada (un algoritmo es un conjunto ordenado de
transformaciones a realizar con la información para obtener el resultado final
buscado).
La lógica de la resolución del problema está en el algoritmo que se elige.
La primera tarea a realizar para resolver un problema es seleccionar el mejor de los
algoritmos posibles. Con independencia del problema a tratar, todo algoritmo ha de
prever la existencia de tres partes claramente diferenciadas: entrada de los datos a
procesar, proceso de los datos, salida de los resultados obtenidos. Con respecto a
la entrada/salida de datos, se realiza con las sentencias adecuadas para leer/escribir
datos de los periféricos. Los algoritmos de proceso de datos son, por lo tanto, la
parte difícil del diseño de un algoritmo, en la que nos centraremos en lo que sigue.
En el diseño de un algoritmo, puede ayudar el saber que existen sólo tres
tipos básicos de estructuras lógicas: secuenciación, decisión y repetición. La
utilización de estas estructuras genera programas con una estructura lógica clara y
bien diferenciada. Se ha visto que, a la larga, esto da lugar a programas más
eficientes, con errores de lógica más fácilmente detectables, y también más fáciles
de mantener.
Secuenciación: Consiste en la ordenación temporal de las instrucciones a
realizar. Hemos de indicar qué instrucciones se ejecutan antes y cuales
después. Una forma primaria de secuenciación se consigue colocando las
instrucciones en el mismo orden en que las queremos ejecutar. Como veremos,
también se necesitarán instrucciones que nos indiquen cambios en orden de
ejecución.
Decisión: Dependiendo del resultado de una pregunta, se ejecuta un bloque de
instrucciones u otro alternativo. Tienen una estructura del tipo:
IF condición THEN
Instrucciones a ejecutar si se cumple a condición
ELSE
Instrucciones a ejecutar si no se cumple la condición
ENDIF
Repetición: Consiste en la repetición de una tarea concreta mientras se cumple
una condición. Su estructura es del tipo:
DO mientras se cumpla una condición
Instrucciones a ejecutar si se cumple a condición
ENDDO
Una vez que se ha establecido el algoritmo, se escribe usando el lenguaje
de programación elegido. Los lenguajes de alto nivel tienen una gramática lo

147
Índice
Capítulo 3

suficientemente flexible como para permitir la traducción de todas las estructuras


lógicas que se presentan en los algoritmos.
Un ejemplo de algoritmo es el que se describe a continuación, una de los
varios posibles para calcular la media aritmética de un conjunto de N números, que
se introducen en el ordenador como datos:
Lectura del número de total de puntos a procesar N
Inicializar a 0 el número de puntos leídos I (1=0)
Inicializar a 0 el valor total de los valores leídos (NT =0)
DO mientras I sea menor que N
Lee el valor de N
Acumula el valor de N en NT (NT=NT+N)
Incrementa en 1 el número de puntos leídos (I = 1+1)
ENDDO
Obtención de la media aritmética (MEDIA = NT/N)
Escritura del valor de la media
Existen otros posibles algoritmos que realizan la misma tarea. El usuario debe
estudiar los más interesantes y elegir entre ellos el más eficiente.

3.2.5 Diseño de programas: programación estructurada

No hay procedimientos automáticos de generar algoritmos ni programas. A


fin de escribir un programa que permita que el ordenador realice de forma eficiente
la tarea que se le desea encomendar, se siguen procedimientos creativos intuitivos
y personales. Sin embargo, se han establecido procedimientos para optimizar el
proceso de diseño y programación, junto con el resultado de la misma. Una de esas
formas es la denominada programación estructurada.
El objetivo de la programación estructurada es obtener programas con una
estructura lógica lo más eficiente posible. Para ello, se recurre a dividir el
algoritmo en módulos pequeños, interconectados entre sí. Cada módulo realiza una
tarea sencilla, y la lógica del programa está en la forma en la que se interconectan
los módulos. Este tipo de estructuración facilita la modificación posterior de los
programas, así como el trabajo en equipo (cada miembro puede dedicarse a diseñar
uno o varios módulos).
El diseño de un programa de acuerdo con la programación estructurada
consta de las siguientes fases:
1) Definición del problema: Se establecen los resultados de los que se
parte, aquellos a los que se quiere llegar, los pasos básicos a realizar
para pasar de unos a otros, y los diferentes caminos que pueden
seguirse para establecer dicha conexión (algoritmos alternativos). De

148
Índice
Capítulo 3

entre todas las opciones, se opta por la que se considera más


eficiente.
2) Diseño !,top-downft del programa: Para el algoritmo seleccionado, se
establecen las partes en las que se subdivide el problema, y se
establece la conexión lógica entre ellas. A cada parte del problema se
le asigna un módulo, que se diseñará de forma independiente. Se
comprueba el funcionamiento de cada módulo por separado. Luego
se ensamblan las partes y se comprueba el funcionamiento global del
programa.
3) Diseño de los módulos: Empleando las estructuras básicas ya
definidas anteriormente, se establece el algoritmo más eficiente para
cada módulo y se codifica en el lenguaje de alto nivel seleccionado.
Es importante hacer notar que los errores de lógica de los algoritmos se generan en
esta fase y se encuentran dentro del algoritmo elegido. Dichos errores son los más
difíciles de detectar dentro de un programa. La programación estructurada trata de
minimizar la generación de dichos errores y facilitar su posterior detección.

3.2.6 Etapas en la elaboración de un programa

La elaboración de un programa es un proceso iterativo, con múltiples fases


que se pueden repetir, dependiendo de los resultados obtenidos en la fases
anteriores. El objetivo final es obtener un programa que se tenga la certeza de que
dará los resultados esperados en la realización de las tareas para las que se ha
diseñado.
La fases más importantes en la elaboración de un programa son las
siguientes:
1) Definición del problema a resolver
2) Diseño del programa (siguiendo las reglas de la programación
estructurada)
3) Programación del algoritmo diseñado, en el lenguaje de alto nivel
4) Compilación del programa. Si se detectan errores de compilación, se
vuelve a la fase 3.
5) Montaje del programa (incorporando los programas de utilidad que
sean necesarios de las librerías de programas). En este punto,
tenemos el programa en su forma binaria, válido para ser ejecutado
por el ordenador. Si se producen errores de montaje (por ejemplo,
porque lamamos a programas no existentes en las librerías) se ha de
recompilar y montar de nuevo el programa (ir a la fase 3)
6 ) Evaluación del programa. En esta fase, ejecutamos el programa con
ejemplos conocidos, para evaluar la corrección de los resultados que

149
Índice
Capítulo 3

produce. Si los resultados no son satisfactorios, hemos de volver a la


fase 1 o 2 , dependiendo del tipo de error o mal funcionamiento
encontrado. Es importante que en la fase de evaluación se exploren
toda la variedad de opciones en los datos de entrada que pueden
encontrarse en la utilización posterior del programa.
Si todas las fases se han recorrido satisfactoriamente, tenemos un programa fiable
en fase de explotación.

3.3, PR O G RA M A CIÓ N EN L EN G U A JE FO RTRAN

3.3.1 Fundamentos del lenguaje FORTRAN

El lenguaje FORTRAN es el lenguaje de alto nivel más empleado en el


momento actual en la escritura de programas científicos. El propio nombre (un
acrónimo de FORmula TRANslator) indica que fue originalmente diseñado para
ese fin.Desde su aparición en la mitad de los años 50, ha ido evolucionando,
incorporando nuevas instrucciones, existiendo en la actualidad dos referencias, el
FORTRAN-77 y el FORTRAN-90. El primero es el más básico y popular, por lo
que nos centraremos en dicho nivel en todo lo que sigue. El segundo es una
extensión pensada para hacer más fácil el trabajo con vectores y matrices.
Los programas FORTRAN se componen de instrucciones que indican las
operaciones a realizar con la información (normalmente de tipo numérico). Dicha
información se ha guardado en posiciones de memoria, identificadas por un
nombre, como si fuesen variables matemáticas. Las instrucciones FORTRAN se
escriben de acuerdo con las siguientes reglas:
a) Formato: Cada instrucción se escribe en una línea nueva, entre las
columnas 7 y 72, ambas inclusive. Si es necesario usar más de una línea,
se empleará la siguiente línea, escribiendo cualquier carácter en la
columna 6 para indicar que esta línea es una continuación de la anterior.
Entre las columnas 1-5 se podrá opcionalmente escribir un número
identificativo de la instrucción, al que se denominará etiqueta. Las líneas
que tengan una C en la primera columna se considerarán como
comentarios y el compilador no las traducirá. Los blancos en cualquier
parte de la instrucción no se traducen.
b) Elementos gramaticales: Dentro de cada instrucción podrán aparecer
cualquiera de los siguientes elementos:
Palabra clave: DO, GO TO, STOP, READ, PRINT, ...
Identificadores: nombres que se asocian a las variables o a módulos del
programa. Tendrán de 1 a 6 caracteres, el primero de los cuales es

150
Índice
Capítulo 3

obligatoriamente una letra. No podrán aparecer caracteres especiales


dentro del nombre ($, &, %, ...)
Etiquetas: Número que identifica a una instrucción. Ha de estar
comprendido entre 1 y 99999.
Operadores: representan las operaciones que se quieren hacer con los
datos.
Separadores: Elementos de puntuación (por ejemplo, las comas, el signo
igual,...).
c) Orden de las instrucciones: Las instrucciones se colocarán en el orden en
que se quieren ejecutar, respetando el siguiente convenio de ordenación:
1 ) se identificará el nombre del módulo, mediante las palabras clave
PROGRAM, FUNCTION, o SUBROUTINE. Si se trata del
programa principal, la identificación (mediante la instrucción
PROGRAM) es opcional,
2 ) bloque de instrucciones de definición de variables, empezando por la
instrucción IMPLICIT, si existiera (por ejemplo REAL*4 N),
3) bloque de instrucciones de dimensiones (DIMENSION),
4) bloque de instrucciones DATA,
5 ) conjunto de instrucciones a ejecutar, ordenadas secuencialmente tal
como se quieren ejecutar,
6 ) instrucción END, necesaria para decirle al compilador que se ha
terminado el módulo que ha de traducir.
c) Tipos de instrucciones: Las instrucciones de FORTRAN sólo pueden ser
de estas clases:
1) De declaración de variables (REAL*4 N)
2) De ejecución, en las que se procesa la información. Entre estas
últimas, podemos distinguir los siguientes subgrupos:
Instrucciones de entrada/salida
Instrucciones de control (IF)
Instrucciones repetitivas (DO)
Instrucciones de asignación (1=1+1)
3) La instrucción de finalización de compilación del módulo (END)
Seguidamente vamos a estudiar las instrucciones más empleadas en los programas
científicos escritos en FORTRAN.

3.3.2 Instrucciones de declaración

Sirven para definir el tipo de información que vamos a guardar en una


posición de memoria a la que le asignamos el nombre de una variable. Por
convenio de asignaciones, el FORTRAN-77 supone que las variables que empiezan
por letras comprendidas entre la I y la N (ambas inclusive) contienen información

151

Índice
Capítulo 3

de números enteros, mientras que se trata de números reales en el resto de las


letras. Esta asignación por defecto se puede cambiar mediante algunas de las
sentencias siguientes:
IN TEG ERS A define A como una variable entera, que se
almacena en n bytes (por defecto 4 bytes).
REAL*n A define A como una variable real
almacenada en n bytes (4 por defecto).
COMPLEX* n A A es una variable compleja almacenada en
n bytes (8 por defecto),
CHARACTER *n A define A como una variable donde se
almacenan n caracteres (cada carácter se
almacena en un byte en el código ASCII,
luego si n = 2 se podrán almacenar dos
caracteres). El valor por defecto de n es
uno.
LOGICAL A Define A como una variable lógica, en la
que se almacena un bit que puede ser 0 o 1 .
INTEGERS (A) todas las variables que empiecen por A
serán enteros almacenados en n bytes.
IMPLICIT REAL*n (A-H,0-Z) define que son reales*n todas las variables
cuya primera letra empiece por las letras
comprendidas entre la A y la H o la Z y la
Z.
DOUBLE PRECISSION A asigna a la variable A un número de bytes
igual al doble de la definición por defecto,
DIMENSION A(2,3) define A como una variable matricial de 2
filas y 3 columnas
PARAMETER (PI=3.14) . PI se convierte en una constante numérica
que no se puede redefinir en otra
instrucción del mismo programa.

3.3.3 Instrucciones de asignación aritmética

Se emplean para guardar un valor en una posición de memoria identificada


por el nombre de una variable. Si formato es el siguiente
[etiqueta] variable = expresión matemática
donde la etiqueta es opcional y puede ser un número cualquiera no utilizado
previamente en otra etiqueta. Las variables empleadas para identificar las
posiciones de memoria se comportan de forma similar a las variables matemáticas,

152
Índice
Capítulo 3

aunque el hecho de que se refieran a una posición de memoria permite escribir


expresiones del tipo:
I = 1+ 1
que se han de interpretar como "toma el contenido de la posición I, súmale el valor
uno y vuélvelo a guardar en la posición I" y que matemáticamente serían
incorrectas.
La expresión matemática que aparece a la derecha del signo igual (que
puede tomarse como el operador de asignación) puede ser un número o una
expresión matemática compleja
X= 3.5
X=Y+A/25.2
En el primer caso se guarda el valor 3.5 en la posición de memoria indicada por la
variable 3.5. En el segundo caso en la posición X se guarda el resultado de sumar la
información contenida en la posición Y con el resultado de dividir la información
contenida en A por 25.2.
Las operaciones que pueden aparecer en las expresiones matemáticas son
las siguientes: suma (+), resta (-), multiplicación (*), división (/) y potenciación
(**), entre las operaciones primarias, y cualquiera de las funciones matemáticas
contenidas en las librerías de programas del compilador, como, por ejemplo:
Raíz cuadrada : SQRT(X)
Exponencial: EXP(X)
Seno: SIN(X)
Coseno : COS(X)
Logaritmo decimal: LOG(X)
Logaritmo neperiano: LN(X)
Valor absoluto: ABS(X)
Cuando existe más de una operación dentro de la expresión, se ejecutan
según el siguiente convenio de prelación de las operaciones (mayor prelación
cuanto más arriba en la siguiente lista):
1) Llamadas a función (por ejemplo, EXP(X) )
2) Expresiones entre paréntesis, empezando por los paréntesis más
internos
3) Potenciaciones (**)
4) Multiplicaciones y divisiones
5) Sumas y restas
6) Cuando haya más de una operación con la misma prelación, se ejecutan
primero las que están más a la izquierda

153
Índice
Capítulo 3

3.3.4 Instrucciones de entrada/salida elemental

Sirven para introducir la información que queremos procesar en el


ordenador (lectura de datos) o para escribir los resultados del proceso de datos
(salida de datos). Estas sentencias tienen una gran cantidad de opciones, por lo que
la opción más sencilla es emplear la lectura y escritura más elemental, la no-
formateada , para dedicarse luego a perfeccionar la forma de la entrada/salida.
La entrada de datos no-formateada se realiza mediante la instrucción:
[etiqueta] READ(IN,*) lista de N variables separada por comas
donde IN indica el tipo de periférico sobre el que se va a hacer la lectura de datos
(se ha de definir con antelación, por ejemplo IN=5). Cuando se ejecuta esta
instrucción, el ordenador lee en una línea N valores numéricos separados por
comas o blancos, y los asigna en el mismo orden a están las variables. Así, por
ejemplo, cuando se ejecuta la sentencia
READ(5,*) A, B, C
y al ordenador se le entran por el periférico 5 los valores 1.0, 2,5, 3.33 en una línea,
el valor 1.0 lo guarda en la posición de la variable A, y los valores 2.5 y 3.33 los
guarda en las posiciones B y C.
La salida de datos no-formateada se hace mediante la instrucción:
[etiqueta] WRITE(IO,*) lista de N variables separadas por comas
que da lugar a que por el periférico 10 se escriban los valores de las N variables.
La asignación de los canales de entrada/salida depende del compilador.
Por defecto, una gran cantidad de compiladores siguen el siguiente convenio:
Unidad 5 = teclado usuario (unidad de lectura por defecto)
Unidad 6 = pantalla usuario (unidad de escritura por defecto)
Unidad 0 = pantalla usuario (unidad de escritura de errores de ejecución)
Otras unidades (n) = se generan ficheros fort.n, que quedan en el disco
Por lo tanto, el canal de lectura por defecto será el 5 y el de escritura el 6 .
También es posible escribir letreros literales no-formateados por el canal
de escritura mediante las sentencias siguientes:
WRITE(6 ,*),HOLA’
o, alternativamente,
WRITE(6 ,*)’A es igual a A
lo que es de gran utilidad para aclarar el significado de los valores numéricos
escritos en el fichero de salida. Veremos posteriormente que esto puede gestionarse
a voluntad con escrituras formateadas, de manera mucho más eficiente.

154
Índice
Capítulo 3

3.3.5 Instrucciones de ejecución condicional

Permiten la ejecución selectiva de partes del programa dependiendo de si


se cumple una condición o no. Su forma general es:
[etiqueta] IF (condición) THEN
conjunto de instrucciones a ejecutar si la
condición se cumple
ELSE
conjunto de instrucciones a ejecutar si la
condición no se cumple
ENDIF
La condición establece una relación entre dos posiciones de memoria, por ejemplo,
A y B, y son posibles las siguientes comparaciones:
A.EQ.B ¿es A igual a B?
A.NE.B ¿es A diferente de B?
A.GT.B ¿es A mayor que B?
A.LT.B ¿es A menor que B?
A.GE.B ¿es A mayor o igual a B?
A.LE.B ¿es A menor o igual a B?.
Nótense los puntos que separan la condición de las variables. Ambos son
obligatorios en FORTRAN.
Las condiciones pueden ser múltiples y afectar a más de una variable, para
lo que se pueden usar los nexos lógicos .AND. y/o .OR. . Así, por ejemplo, puede
escribirse:
IF ((A. GT. B) .AND.(A. GT. C)) THEN
que compara el caso en que el contenido de A es simultáneamente mayor que el de
B y C. Pueden existir tantos .AND. y .OR. como sean necesarios para precisar la
comparación.
La forma de la instrucción IF anterior puede simplificarse en algunos
casos, cuando la tarea a realizar puede describirse en una sola instrucción
IF(A.EQ.B) WRITE(6 ,*)’ A = B'
Igualmente, si no existe el bloque de instrucciones a realizar cuando la condición
no se cumple, la instrucción IF se puede simplificar así:
IF(A.EQ.B) THEN
sentencias a ejecutar si se cumple la condición
ENDIF

155
Índice
Capítulo 3

Siempre es posible escribir una condición para que no exista el bloque asociado al
incumplimiento de la condición.

3.3.6 Instrucciones de transferencia del control de la ejecución

Permiten cambiar el orden secuencial por defecto que sigue la ejecución


del programa. Las más empleadas son las siguientes:
GO TO etiqueta el programa se sigue ejecutando en la instrucción
que tiene la etiqueta indicada (por ejemplo, GO TO
25 envía la ejecución a la sentencia con etiqueta
25).
[etiqueta] CONTINUE el programa continúa su ejecución con la siguiente
instrucción en el flujo de ejecución normal.
STOP se termina la ejecución del programa.
RETURN sólo tiene sentido en subprogramas. Su función es
la de devolver el control al programa principal
desde el que se ha llamado a dicho subprograma.,
que resume la ejecución en la línea siguiente desde
la que se ha llamado al subprograma

3.3.7 Instrucciones de ejecución repetitiva

Permiten ejecutar de forma repetida un conjunto de sentencias. Para ello,


basta con emplear las instrucciones DO. Én el FORTRAN-77 existen varias formas
de escribir estas sentencias, pero una de las que más control permiten sobre la
forma en la que se realiza la ejecución repetitiva ,es la siguiente:
[etiqueta^ DO etiqueta2 índice = valor inicial, valor final, incremento
conjunto de sentencias
cuya ejecución se quiere repetir
etiqueta2 sentencia final del bloque a repetir
El bloque se repite tantas veces como valores pueda tomar la variable que sirve de
índice entre el valor inicial y el final, con el incremento de paso que se indica en
incremento. En cada caso, se repiten todas las instrucciones del bloque, incluyendo
la de la etiqueta. La primera vez que el valor del índice supera el valor máximo, se
ejecuta la sentencia posterior a la que cierra el bloque DO. La variable que sirve de
índice ha de ser obligatoriamente entera, de la misma forma que lo han de ser los
valores inicial y final que toma, y el incremento entre valores consecutivos de
dicha variable. El valor del incremento es opcional: si no se indica, el valor por
defecto es igual a uno. Los valores de la variable índice pueden ser positivos,

156
Índice
Capítulo 3

negativos, o cero. Una práctica general es hacer que la última de las sentencias del
bloque a repetir sea la sentencia CONTINUE. Así sucede, por ejemplo, en el
siguiente conjunto de instrucciones, que permiten calcular el factorial de un
número entero
READ(5,*) N
FAC=1.0
DO 10 1=2,N,1
FAC=FAC*I
10 CONTINUE
WRITE (6 ,*) 'EL FACTORIAL DE ', N, ' VALE', FAC
STOP
END
En este programa el bloque DO se inicia con el valor N=2. Se incrementa en 1 y se
repite dicho bloque hasta que I es mayor que N (es decir I=N+1), momento en el
que se ejecuta la sentencia posterior a la de la etiqueta que cierra el bloque DO (en
este caso la sentencia WRITE).
Existen varias restricciones en el diseño de bloques DO. La primera es que
no se puede variar el valor de la variable que sirve de índice desde dentro de las
sentencias del bloque DO, como sucede en el caso
DO 10 I =1,N

1= 1+1

10 CONTINUE
Una sentencia como esta cambiaría el valor del índice dentro del bloque de
sentencias a ejecutar y carece de lógica. El compilador comprueba que no se
produzca este tipo de errores y, cuando se producen, se los indica al programador
(los considera como errores de FORTRAN, aunque se trata de errores en la lógica
del programa).
Otro error común es el que se produce cuando existe un DO dentro de otro
(se denominan DO anidados), como en el caso:
DO 10 1=1, N
DO 20 J=1,N

20 CONTINUE
10 CONTINUE
En este caso, los dos DO están correctamente anidados, es decir, el más interno
está completamente contenido en el más externo. Sin embargo, si las dos
instrucciones CONTINUE del final se cambiasen de orden, se produciría un cruce

157
Índice
Capítulo 3

en el flujo de ejecución de cada DO, lo que da lugar a un error, detectable en el


tiempo de compilación o de ejecución.
Para finalizar, sólo indicar que existe otra forma de DO bastante popular y
que realiza la misma funcionalidad a la descrita hasta ahora, donde la instrucción se
escribe de la forma:
[etiqueta^ DO WHILE (condición)
bloque de sentencias a repetir
ENDDO
Un ejemplo de la utilización de este tipo de DO, lo podemos ver para el caso del
cálculo del factorial descrito anteriormente:
READ(5,*) N
FAC=1.0
1=1
DO WHILE (I.LE.N)
FAC=FAC*I
1= 1+1
ENDDO
WRITE (6 ,*) ’EL FACTORIAL DE ’, N ,' VALE’, FAC
STOP
END

3.3.8 Trabajo con variables indexadas

Se entiende por variables indexadas todas aquellas que contienen


elementos en su interior, por lo que requieren de un índice que identifique su
posición dentro de la variable. Es el caso de los vectores (variables indexadas de
orden 1 ) y matrices (variables indexadas de orden 2 ), aunque pueden existir
variables indexadas de orden superior. Así, para una matriz A de 2 filas y 3
columnas, una matriz de (2,3), sus elementos A¡j se identifican cuando se indica la
fila y la columna en la que se encuentran

Dentro del FORTRAN-77 se le indica al ordenador que una variable es


indexada mediante la instrucción DIMENSION. Así, una matriz A de (2,3) se
define mediante la instrucción:
DIMENSION A(2,3)
y cada elemento A V}se describe de la forma A(I,J). En el caso de una matriz A(2,3),
el ordenador guarda 6 posiciones de memoria para la matriz A, quedando dicha

158
Índice
Capítulo 3

matriz almacenada por columnas, es decir, queda guardada de forma secuencial


en el orden A (l,l), A (2,l), A (l,2), A(2,2), A (l,3), A(2,3). La instrucción
DIMENSION anterior es un caso particular de la instrucción DIMENSION
general, que tiene la forma
DIMENSION J,:J2)
siendo l t e I2 el índice inicial y final de las filas, y Ji y J2 el índice inicial y final de
las columnas. Dichos índices pueden tomar cualquier valor, aunque por defecto, si
no se indica, el compilador toma los valores iniciales iguales a 1. Por lo tanto, la
instrucción DIMENSION A(2,3) arriba indicada es un caso particular de la
instrucción
DIMENSION A(l:2, 1:3)
Si fuese necesario, podríamos haber definido la misma matriz A de la forma
DIMENSION A(0:1,0:2)
aunque, en este caso, el primer elemento quedaría identificado como el A(0,0) en el
resto del programa.
De la misma forma que se ha declarado una matriz, se puede declarar
cualquier tipo de variable indexada: basta con definir los valores iniciales (si se
quieren hacer diferentes de 1 ) y finales de las variables indexadas que contiene,
separadas por comas. En el caso de un vector V del 10 posiciones y un tensor T de
dimensiones (3,3,3) dicha declaración se haría de la forma:
DIMENSION V(10), T(3,3,3)
Las instrucciones DIMENSION han de ir antes de cualquier instrucción ejecutable
o el compilador da errores de compilación. Los índices que sirven para direccionar
los elementos de las variables indexadas han de ser enteros, por lo que las variables
que los refieren en FORTRAN han der ser, obviamente, enteras.
El trabajo general con variables indexadas en FORTRAN no presenta
ninguna particularidad especial. Basta con recordar que nos referimos a cada
elemento individual de la matriz, y que las relaciones entre matrices (igualdad,
suma, ...) se refieren elemento a elemento y para todos sus elementos (por
ejemplo, dos matrices A y B son iguales si A(I,J)=B(I,J) para todo I y J).
La definición de los elementos de una variable indexada implica establecer
el valor de todos sus elementos. Debido a esto, cuando leemos o escribimos una
matriz hemos de leer o escribir todos sus elementos. Una forma eficiente de
realizar dicho proceso es mediante el uso de instrucciones DO. Seguidamente
describimos las opciones para el caso de la lectura. La escritura presenta opciones
similares, simplemente cambiando los READ por WRITE.

159
Índice
Capítulo 3

3.3.9 Lectura y escritura de vectores y matrices

La lectura eficiente de los elementos de una matriz se puede hacer


mediante el uso de instrucciones DO en los que el índice sea la variable que cambia
dentro del DO. Habrá tantos DO como índices tengá nuestra variable indexada (es
decir, 2 para el caso de una matriz y 1 para el de un vector). Para el caso de una
matriz A, son posibles estas tres opciones para leer todos los elementos de la
matriz:

Lectura por elementos:

Dada una matriz A de dimensiones (2,3) la lectura elemento a elemento se


hace usando las siguientes instrucciones:
DIMENSION A(2,3)
N=2
M=3
DO 10 1=1,N
DO 20 J=1,M
READ (5,*) A(I,J)
20 CONTINUE
10 CONTINUE

Los elementos se leen en el siguiente orden:


A (U )
A(l,2)
A(l,3)
A(2,l)
A(2,2)
A(2,3)
mediante seis instrucciones READ, un elemento por cada línea de datos
entrada.

Lectura por filas:

En este caso la lectura de la matriz A de dimensiones (2,3) se hace fila a fila,


empleando las siguientes instrucciones
DIMENSION A(2,3)
N= 2
•M=3
DO 10 1=1,N

160
Índice
Capítulo 3

READ (5,*) (A(I,J), J=1,M)


10 CONTINUE
Los elementos se leen en el siguiente orden:
A (l,l), A(l,2), A(l,3)
A(2,l), A(2,2), A(2,3)
mediante dos instrucciones READ, una fila en cada línea de datos. La clave
está en la instrucción
READ (5,*) (A(I,J), J=1,M)
en la que existe un denominado DO-implícito (la parte entre paréntesis), y
que el compilador traduce como:
READ (5,*) A(I,1), A(I,2),A(I,3)
dado que M es igual a 3.

Lectura en bloques:

En este caso la lectura de la matriz A de dimensiones (2,3) se hace de golpe,


mediante las siguientes instrucciones
DIMENSION A(2,3)
N=2
M=3
READ (5,*) (((A(I,J), J=1,M),I=1,N)
Los elementos se leen en el siguiente orden:
A (l,l), A(l,2), A(l,3), A(2,l), A(2,2), A(2,3)
mediante una sola instrucción READ.

Todo lo descrito para lectura de datos puede emplearse para escritura de datos, con
sólo sustituir el comando READ por WRITE y cambiar el periférico de lectura (5,
en este caso) por el de escritura (6 , por ejemplo).

3.3.10 Lectura y escritura con formato

La lectura/escritura que hemos empleado hasta ahora hace uso de los


formatos por defecto que se han definido en el compilador (el formato *). Cuando
se quiere, es posible controlar en todo detalle la forma en que se produce la lectura
y escritura, empleando formatos especificados por el usuario. Esto se hace
mediante la instrucción FORMAT, que tiene una estructura:

161
Índice
Capítulo 3

etiqueta FORMAT(especificaciones de campo, separadas por comas)


donde etiqueta es un número entero que identifica el tipo de formato a emplear y
que tiene que ser diferente de cualquier otra etiqueta empleada en el mismo
programa principal o subprograma. En ese caso la sentencia READ o WRITE
deberá indicar que va a usar dicho formato, lo que se hace sustituyendo el asterisco
del formato por defecto por el número de la etiqueta del formato que queremos
emplear. Un ejemplo es el siguiente:
READ(5,100) N
100 FORMAT(I2)
WRITE(6,101)N
101 FORMAT(//’ EL VALOR DE N ES ’,12)
Como se ve, existen formatos para READ y para WRITE. Sin embargo, es una
buena práctica realizar los READ con formato por defecto, dado que de esta forma
no hace falta preocuparse por los campos de entrada, mientras que los WRITE
deberían de realizarse formateados.
Debemos entender la instrucción FORMAT como una plantilla que nos
dice cuántas posiciones asignamos en una línea para cada tipo de información que
queremos que contenga. Así en la instrucción FORMAT de etiqueta 100 del
ejemplo anterior, hemos asignado las dos primeras posiciones de la línea para un
número entero. En esencia, debemos tomar las variables que queremos leer o
escribir, y asignar un campo de lectura/escritura para cada una, según el convenio
de campos que se describe a continuación:

Enteros: In, siendo n el número de caracteres que debe tener el


entero como máximo. Se ha de prever que se
necesite un carácter para escribir el signo menos
cuando el número es negativo, por lo que con
formato 12 se puede escribir desde el valor 99 hasta
el valor -9. Cuando el número a escribir es mayor o
menor que el que puede escribirse en el campo de
escritura, se escriben asteriscos sobre todo el
campo. Los números se escriben ajustados a la
derecha, sin que aparezcan los ceros que lo
preceden (aparecen espacios en blanco, en su
lugar). Cuando el formato se usa en lecturas, los
blancos que preceden al número se traducen como
ceros, mientras que los que lo siguen se toman
como ceros. Así un 1 y un blanco en las dos
primeras columnas de un campo 1 2 se traducen
como el número 1 0 , mientras que un blanco y un 1
en el mismo campo se traducen como el número 1 .

162
Índice
Capítulo 3

Reales: Fn.m denominado formato fijo de n caracteres con m


posiciones para la parte decimal, donde el número
se escribe como ±eee.ddd (por ejemplo, 123.456).
Se ha de tener en cuenta que de entre los n
caracteres hay uno que se dedica al signo del punto
del decimal, y otro para el signo menos, cuando el
número es negativo. Si se excede el campo, se
escriben asteriscos sobre todo el campo. Así, con
un campo F5.2, de las cinco posiciones, hay dos
para decimales, y una tercera para el punto
decimal. Por lo tanto, podremos escribir números
desde 999.99 hasta -99.99. Por lo tanto, el número
63.5 se escribe como 63.50, mientras que el
número 165.0 quedará escrito como ***** dado
que excedemos el campo. En el caso de emplear
este tipo de campo para lectura, se destinan m
posiciones para el número real, y se debe de
escribir incluyendo el punto decimal (por ejemplo
1 .) para evitar sorpresas con los valores leídos,
En.m denominado formato variable o notación científica,
en el que los números se escriben como
±0.dddE±ee (por ejemplo, 0.123456E3), con n
caracteres en total, de los cuales m son decimales.
Ha de tenerse en cuenta que de los n caracteres uno
será usado por el signo del exponente, otro por la
letra E, otros dos por el cero y el punto decimal, y
otro por el signo del número. El exponente siempre
ocupa dos posiciones. Por lo tanto, con un formato
E7.2 podremos escribir números entre el, valor
0.99E+99 y -0.99E-99, es decir, nos cubre un
amplio abanico de valores.
Dn.m igual que en En.m pero el número queda escrito de
la forma ±0.dddD±ee. Está pensado para números
almacenados en doble precisión,
Gn.m igual que el Fn.m cuando el valor del número está
comprendido entre 0 . 1 y 1 0 m, mientras que en el
resto de los valores equivale a un campo En.m.
Caracteres: An permite escribir hasta n caracteres, ajustados por la
izquierda, con blancos a la derecha hasta completar
el campo. Si se excede el campo, se trunca a partir
del primer carácter que no cabe.

163
Índice
Capítulo 3

Espacios en blanco: nX se dejan tantos blancos como indique el valor de n


que precede a la X
Salto de línea: I se produce un salto de línea cada vez que se
encuentre una barra de dividir en el formato de
escritura.

La sentencia FORMAT no es ejecutable y se puede poner en cualquier


parte del programa. Es una práctica conveniente para llevar fácil control de los
formatos existentes, el agrupar las sentencias FORMAT al final del programa,
antes del END, y darles números de etiqueta altos (por ejemplo, mayores que 100).
Dentro del mismo programa principal o subprograma puede haber más de
una sentencia READ o WRITE que usa el mismo formato de lectura/escritura
formateada, no habiendo límite en cuantas instrucciones READ o WRITE usan el
mismo formato.

3.3.11 Lectura y escritura empleando ficheros en disco

Cuando interese que los datos estén previamente grabados en un fichero


guardado en el disco, o que los resultados se escriban en un fichero en disco (en
lugar de aparecer en la pantalla) pueden emplearse instrucciones que dirijan la
entrada/salida desde los periféricos por defecto (5 y 6 , en la mayoría de los casos) a
las unidades deseadas. Esto se hace empleando la instrucción
[etiqueta] OPEN([UNIT=]unidad)
siendo unidad el número de periférico que queremos asignar a un futuro
READ(unidad,formato) o WRITE(unidad,formato). La instrucción OPEN tiene
todo un conjunto de opciones muy completa, que permiten definir, entre otras
cosas, el fichero con el que se quiere trabajar y la forma de tratar los errores cuando
se trata de trabajar con dicho fichero, por ejemplo cuando no existe. Las opciones
se pueden añadir, separadas por comas, después de especificar la unidad. Algunas
de estas opciones, son las siguientes:

FILE-datos.dat’ abre el fichero de nombre datos.dat en el directorio


de trabajo
FILE=nombre abre el fichero cuyo nombre sea el indicado dentro
de la variable nombre (que ha de ser una variable
carácter de longitud adecuada para contener el
nombre sin truncar del fichero). El nombre se
puede introducir en el programa mediante una
instrucción READ, o empleando una llamada a la
subrutina getenv, cuando la variable nombre se ha

164
Índice
Capítulo 3

definido como una variable de entorno, por medio


de una instrucción setenv. Por ejemplo, podemos
definir file3 igual a datos.out mediante la
instrucción

setenv file3 datos.out

y luego recuperar ese valor desde dentro del


programa escribiendo la instrucción FORTRAN-77

cali getenv('file3',nombre)

lo que nos deja dentro de la variable nombre el


valor datos.out.
STATUS-OLD! nos indica si el fichero ya existe
STATUS=,NEW' nos indica que el fichero se crea de nuevo. Si ya
existe anteriormente, se borra su contenido
STATUS=fUNKNOWNf si ya existe el fichero, se abre sin borrar su
contenido, si no, se crea de nuevo
ERR=etiqueta indica la etiqueta de la instrucción a ejecutar si se
produce un error cuando se ejecuta la instrucción
OPEN (por ejemplo cuando se trata de abrir con la
opción STATUS-OLDf un fichero que no existe).
Hay otras muchas opciones, descritas en el manual de FORTRAN-77 del
compilador que se utilice.
Al acabar de usar los ficheros, es una buena costumbre el cerrar los
ficheros abiertos, lo que se hace mediante la instrucción
CLOSE([UNIT=]unidad)
para cada unade las unidades abiertas. En caso de no hacerlo, el ordenador
normalmente lascierra al final de la ejecución del programa, pero esto no siempre
es así.

3.3.12 Programas principales y subprogramas

El objetivo de la programación estructurada es tener programas


compuestos con módulos independientes, cada uno de ellos realizando una tarea
específica, que se engarcen en un programa que controle el funcionamiento de
todos los módulos. Esto se lleva a cabo dentro del lenguaje FORTRAN mediante
un programa principal que llama a diversos subprogramas que cuelgan del mismo.
Cada subprograma debemos de imaginarlo como un conjunto de instrucciones que

165
Índice
Capítulo 3

realizan una tarea específica con unos datos de entrada, devolviendo al programa
del que depende los resultados de dicha tarea. Este concepto de dependencia y
entrada salida de datos se ilustra en la Figura 1. Un programa principal puede
llamar a varios subprogramas, que a su vez pueden llamar a otros subprogramas.
Igualmente, un mismo subprograma puede ser llamado más de una vez por su
programa llamador.
En FORTRAN-77 existen dos tipos de subprogramas, denominados
SUBGRUTINE y FUNCTION, cuya única diferencia es la forma en la que se pasa
la información entre dichos subprogramas y los programas llamadores. Las
instrucciones que forman parte de ambos tipos de subprogramas son aquellas que
se encuentran entre la instrucción que identifica el subprograma y el primer END
encontrado en la secuencia de instrucciones. Normalmente, antes de el primer END
debería de existir una instrucción del tipo
RETURN
que devuelve el control al programa llamador y le pasa los datos. Sin embargo,
pueden existir casos en que dicha instrucción deliberadamente se sustituye por una
instrucción STOP, en cuyo caso el programa para su ejecución y termina.

Figura 3.1. Esquema mostrando la relación entre un programa principal y los


varios subprogramas que forman un mismo programa.

La estructura de los subprogramas del tipo SUBROUTINE y FUNCTION


se analizan en detalle a continuación:

SUBROUTINE

166
Índice
Capítulo 3

También llamadas subrutinas. En ellas la información a tratar y la obtenida


se pasa entre el programa llamador y el subprograma a través de los parámetros
contenidos en la llamada. Se identifican mediante la instrucción:
SUBROUTINE nombre (parámetro^ parámetro2, ...)
y se llaman desde el programa llamador mediante la instrucción
CALL nombre(parámetro1? parámetro2, ...)
El nombre asignado a la función puede ser cualquiera que empiece con una letra,
con un máximo de seis letras y números. El tipo y número de variables en ambas
llamadas deben ser exactamente las mismas, aunque sus nombres no es necesario
que sean los mismos, dado que el ordenador realiza una copia de los contenidos de
las variables, desde el programa llamador hasta una zona específica del
subprograma. Así sucede, por ejemplo en el caso
Programa llamador: CALL ESC(AA,N)
Subprograma: SUBROUTINE ESC(A,M)
El contenido de la variable AA se copia al principio sobre la variable A del
subprograma , y lo mismo sucede con la variable N sobre la M. Cuando dentro de
la subrutina se encuentra una sentencia RETURN en el flujo de ejecución, el
contenido de A en la subrutina en ese momento se copia sobre AA del programa
llamador y lo mismo sucede con M y N. Por lo tanto, la comunicación de los datos
se ha realizado mediante los parámetros.
Existe otra forma de pasar la información entre el programa llamador y las
subrutinas, que es mediante zonas de memoria común a ambos trozos del
programa, llamadas zonas COMMON. Dichas zonas se identifican mediante la
instrucción:
COMMON /nombre/ variable1? variable2, ...
que ha de existir tanto en el programa llamador como en la subrutina, si bien los
nombres de las variables en el programa llamador y la subrutina no han de ser
iguales (lo que permite usar una misma subrutina para procesar dos tipos de datos)
en un mismo programa llamador. En cualquier caso, debe haber una
correspondencia entre el tipo y el número de dichas variables en ambos trozos del
programa o se producen errores de ejecución.
Veamos una ilustración de la utilización de ambos tipos de procedimiento
de paso de parámetros para un programa en el que se quiere leer una matriz A y
otra B mediante el uso de una subrutina LEE adecuada:

C PROGRAMA PRINCIPAL
DIMENSION A(20,20),B(20,20)

167
Índice
Capítulo 3

COMMON/MAT/N,M
C
C LEE EL NUMERO DE FILAS (N) Y COLUMNAS (M) DE LAS
C MATRICES
C
READ(5,*)N,M
C
C LEE LA SUBRUTINA A
C
CALL LEE(A)
C
C LEE LA SUBRUTINA B
,C
CALL LEE(B)
STOP
END
C
C SUBRUTINA LEE
SUBROUTINE LEE(A)
COMMON/MAT/NF,NC
DIMENSION A(20,20)
DO 10 1=1,NF
10 READ(5,*)(A(I,J),J=1,NC)
RETURN
END

F U N C T IO N

A veces llamadas funciones. En este tipo de subprogramas, el paso de


información entre el subprograma y el programa principal se realiza a través del
nombre de la función, siendo necesario pasar los valores de entrada a la función
mediante parámetros en la llamada o regiones de memoria COMMON. La
identificación del subprograma se hace a través de la instrucción:
FUNCTION nombre (parámetroi, parámetro2, ...)
y comprende todas las instrucciones entre esta instrucción y la primera instrucción
END. El nombre asignado a la función puede ser cualquiera que empiece con una
letra, con un máximo de seis letras y números. Se llama dentro del programa
llamador mediante una instrucción en la que aparezca:

... nombre(parámetrob parámetro2, ...) ...

168
Índice
Capítulo 3

Debe existir una correspondencia entre los parámetros del programa llamador y los
del subprograma FUNCTION o si no se producen errores en la ejecución. Un
ejemplo de todo esto puede verse con la siguiente función, que devuelve el valor de
la función y=ax2+b, dados los valores de x:
C PROGRAMA PRINCIPAL
C
COMMON/D ATO/A,B
C CALCULA LA PARABOLA EN X=2.
C
Y=PARAB(2.)
STOP
END
C
C FUNCION PARAB
C
C FUNCTION PARAB(X)
COMMON/D ATO/A,B
PARAB=A*X*X+B
RETURN
END

Los subprogramas FUNCTION obligatoriamente han de terminar con una


sentencia RETURN para que devuelvan el valor calculado al programa llamador.

3.3.13 Librerías de subrutinas y funciones

Existen toda una serie de subrutinas y funciones que resuelven


procedimientos matemáticos de gran utilización, para los cuales se han optimizado
los algoritmos de resolución. Dichos procedimientos se guardan en muchos casos
dentro de librerías de subprogramas, que pueden ser llamadas en el tiempo de
montaje del programa. Así, por ejemplo, se podría emplear una librería donde
estuviese una FUNCTION optimizada para calcular el valor de una parábola,
sustituyendo la descrita anteriormente. Otro ejemplo es el de las funciones SQRT u
otras similares, que se proporcionan dentro de las librerías asociadas a todo
compilador FORTRAN. Igualmente, existen librerías especializadas en cálculo
científico, como las NAG (Numerical Algorithms Group), o especializadas en
tratamiento de gráficos desde FORTRAN.

169
Índice
Capítulo 3

3.4. C ALC U LO M A TR IC IAL

3.4.1 Introducción y definiciones básicas

En este capítulo vamos atratar algunosaspectos básicos del cálculo


matricial, que representauno de losinstrumentos de trabajomás importantes de la
matemática con muchas aplicaciones en distintos campos. Se define una matriz
como un conjunto ordenado de números dispuestos en forma rectangular.
Denotaremos con m el número de filas y con n el de columnas, de tal manera que
escribiremos la matriz de la siguiente manera:
(an aX2 ••• <hn \
a 21 a 22 — a 2n

\ a m l a m2 *•** a m nl

De forma compacta se puede representar también como A = (a¡k). Hay


situaciones especiales que son particularmente interesantes:
• Cuando m = 1 se trata de un vector fila
• Cuando n = 1 se trata de un vector columna
• Cuando m = n la matriz es cuadrada
En este último caso se le asocia un número conocido como determinante:

au a12 .. ■ a ln
«21 a 22 ■•• a 2n
det A =

a nl a n2 ■.. cinn
que se evalúa como:

det A = ^ ( - 1 )V % a2j2 - a nJn,


ni
es decir, como la suma de los n! productos resultantes de todas las permutaciones
posibles, donde se toma cada producto con su signo, o el contrario, según que las
dos permutaciones formadas con los primeros y segundos índices de sus n factores
sean de la misma clase, o de clase distinta (par o impar). Dentro de las matrices
cuadradas existe una categoría especial que es la de las matrices diagonales, esto
es, aquella en la que son nulos todos los elementos excepto los de la diagonal
principal, es decir, los elementos genéricos en una matriz diagonal se pueden
representar por aü6 y, tal como sucede en la siguiente matriz:

170
Índice
Capítulo 3

au 0 ... 0 ^

0 a 22 ••• 0

Un caso especial es el de matriz unidad (I), para la cual el elemento genérico es Sy,
esto es, una matriz diagonal cuyos elementos no nulos son todos iguales a 1 .
Una matriz, cuadrada o no, con todos sus elementos nulos, se denomina
matriz nula (0). Por último, la traza de una matriz es la suma de sus elementos
diagonales:

T rA = \a ü
/ =1

3.4.2 Operaciones con matrices

• La suma y resta se definen sólo para matrices del mismo tipo, con el mismo
número de filas y columnas:
C = A ± B se define por c-± = a¡k ± b¡k
• El producto de un escalar, X, por una matriz A, es una matriz cuyo elemento
general es Xa¡k
• Multiplicación de matrices. Se define para matrices cuyas dimensiones sean
tales que el número de columnas de la primera coincida con el de filas de la
segunda: A(m,n) y B(n,p).
n
C —A B, ^ cifr bjrfc
r-1
Aunque BA esté igualmente definida y sea del mismo tipo que AB(m=n=p),
en general no se verifica la propiedad conmutativa: BA*AB.
Por otra parte existe la matriz unidad, I cuyos elementos son (I)ik=&ik, tal que
AI=IA=A. Si C= AB, se puede demostrar que detC = detA detB
• Transposición de matrices. Consiste en cambiar sus filas por sus columnas. La
denotaremos por A1: (At)ik=(A)k¡
• Conjugada de una matriz, A*: matriz cuyos elementos son los conjugados de A.
La matriz transpuesta de la conjugada la denotaremos: (A*)t=(At)*=A+.
• Inversión de matrices. Se define la matriz inversa (sólo cuando es regular, ver
definición más abajo) como aquella qué cumple A A -1 = A -1 A = I, es decir
su producto nos da la matriz unidad. Se cumple que A " 1 = (detA)"1 A a. La

171
Índice
Capítulo 3

multiplicación por la matriz inversa desempeña en el álgebra matricial un


papel análogo a la división en el álgebra de números.

3.4.3 Algunas propiedades del cálculo matricial

Brevemente mencionaremos algunas de las propiedades más relevantes en el


. cálculo matricial:
• Adición
asociativa: (A + B) + C = A + (B + C)
conmutativa: A + B = B + A
• Multiplicación
asociativa: (A B) C = A (B C)
distributiva: A (B + C) = A B + A C
• Transposición
(A + B)‘ = A* + B‘
(A B)' = Bl A‘
• Inversión
(A B)’1= B 1A'1

3.4.4 Principales tipos de matrices

Matriz regular: det A *0 (cuando se anula se dice que es singular).


Matriz simétrica: Matriz cuadrada que tiene iguales los elementos simétricos
respecto de la diagonal principal: a¡j=aj¡ Vi,j, es decir A es simétrica si
A -A . Si A es simétrica y regular, A' 1 también lo es.
Una matriz cuadrada es antisimétrica si A=-Al
Matriz ortogonal: Matriz cuadrada en la que

a ir a jr ~ j
r

(el producto de dos filas vale 1 o 0 según que ambas filas coincidan o no).
Para una matriz ortogonal su inversa coincide con la transpuesta: At=A_1.
Además el producto de dos matrices ortogonales es otra matriz ortogonal,
y también se verifica que el determinante de una matriz ortogonal vale + 1
ó- 1.
Matriz hermítica: Se dice que una matriz es hermítica cuando es igual a la
transpuesta de su conjugada A = (A1)* = A+
En matrices reales esto significa que es simétrica. Una matriz es
antihermítica cuando A+ = -A.

172
Índice
Capítulo 3

Matriz unitaria: Una matriz se dice que es unitaria cuando la transpuesta de su


conjugada es igual a su inversa: (A 1)* = A"1. En matrices reales esto
significa que es ortogonal.

3.4.5 Valores propios y vectores propios

Si para una matriz A dada se pueden encontrar un número X y un vector u no


nulo tales que se verifique Au = Xu, se dice que X es un valor propio o autovalor y
que u es un vector propio o autovector de la matriz A. La ecuación suele escribirse
como
(A-XI) u = 0, esto es, un sistema de n ecuaciones lineales homogéneas, que sólo
tendrá solución no trivial si det (A-XI)=0. Así se obtiene una ecuación algebraica
de grado n en X, que se denomina ecuación secular o característica, cuyas n raíces
son los valores propios de la matriz.
El desarrollo de la ecuación puede escribirse como
Xn —(an+a 22+ ••• +&nn) Xn 1 + ... + (-l)n detA = 0
verificándose
n n
^ A ¿ = TrA ; ¿=detA
i= 1 i=l
Multiplicando a la izquierda por A la ecuación de valores propios:
A2u = XAu = X2 u.
Análogamente Am u = Xm u. Por tanto, si A tiene los valores propios Xi, X2,... An ,
Amtiene como valores propios Xim, X2m... Xnm y

TrAm = ^ X i m
i= 1
Si a partir de una matriz dada A se forma otra B mediante B = S' 1 A S, donde
S es una matriz regular, se dice que se ha efectuado una transformación de
se m e ja n za , y cumple las condiciones características de las relaciones de
equivalencia. Se puede demostrar que la ecuación secular es invariante para tales
transformaciones, ya que
det (B-XI) = det [S_1 (A-XI) S] = det S"1 det (A-XI) det S = det (A-XI)
(teniendo en cuenta que det S "1 det S = det (S' 1 S) = 1). Por lo tanto A y B tienen
los mismos valores propios.

173
Índice
Capítulo 3

Sea ahora v un vector propio de B correspondiente al valor propio X.


Como B = S'1A S, se tiene que S'1 A S v = Xv, es decir A (Sv) = X (Sv). Luego Sv
es vector propio de A con el mismo valor propio X.
También es inmediato que, a causa de la invariancia de los determinantes
respecto al cambio de filas por columnas, los valores propios de A y A 1 son los
mismos, aunque en general los vectores propios son distintos.
Se puede demostrar además que una matriz hermítica puede transformarse
en una matriz diagonal mediante matrices unitarias: U+AU=D.

3.4.6 Propiedades relativas a conjuntos de vectores

Si para un conjunto de n vectores (cada uno con n elementos) la relación


CjUi + c2 u 2 + ... + cnun = 0 sólo se satisface para ci=c2= ...=cn= 0 , se dice que los
vectores son linealmente independientes. En ese caso forman una base y todo
vector n-dimensional puede expresarse como combinación lineal de los vectores de
la base.
Un sistema de n vectores u¡ de dimensión n tal que u* Uk = 6¡k se dice que
es ortonormal. A partir de n vectores linealmente independientes se puede construir
siempre un sistema ortonormal.

3.4.6.1 Transformaciones vectoriales

Una matriz cuadrada real no singular puede interpretarse como un sistema de


n vectores fila o columna linealmente independiente. Vamos a planteamos cómo
obtener a partir de ellos un sistema de vectores ortogonales (tales que elproducto
escalar de dos cualesquiera de ellos sea nulo). Sidenotamos por a*, a2, ..., an a los
vectores iniciales, construimos la sucesión de vectores v¡ definidos por:
vi = ai
v2 = Xj vi + a2
v3 = Ma vi + \x2 v2 + a3

Vn = V! Vi + V 2 V 2 + .. .+ Vn-l Vn_i + a n

donde Xb \xu ..., vn-i designan coeficientes que se pueden determinar de manera que
cada vector v¡ sea ortogonal a los vectores vi, v2, ..., v¡_i.
De la condición v2l vj = 0 se deduce Xi v / vi + a2l vj = 0, de donde se
obtiene
Xi = - (a2l vi / v/V i)
Análogamente: v3l Vi = 0 y v3l v 2 = 0, de donde se deduce

174
Índice
Capítulo 3

¡¿i Vi1 Vi + a 3l vi = 0
¡¿2 y2 V2 + a 3l V2 = 0
que permiten obtener \i\ y \i2. En general se obtiene
i-1
v¡ = a¡ - { ^ (a¡‘ vk / vk*vk) } vk
k= l
de tal manera que v^ Vk = 0 si i ^k. Estas ecuaciones se pueden escribir en forma
matricial V B = A donde V = (vj, v2, v k) y A = (ab a2, a k), y B es la matriz

/I h l h3 — h n \
0 1 ¿23 b2n
B 0 0 1 ... b3n

xo 0 0 ... 1
con bjk = (vjl ak / vjl vj). Esta tecnica se conoce como metodo de ortogonalizaciön
de Gram-Schmidt.

3.4.7 Inversión de matrices

La inversión de matrices se encuentra estrechamente relacionada con el


problema de la solución de sistemas lineales. En efecto, si tenemos un problemá
del tipo:
Ax = b
para un vector desconocido x, donde A es una matriz cuadrada de coeficientes, y b
es vector conocido, la solución obviamente será:
x= A -1b
por lo tanto conociendo la matriz inversa de los coeficientes habremos resuelto el
problema.
Vamos a ver algunos métodos más habituales para la solución de sistemas
lineales y de inversión de matrices. ¿Cuándo es conveniente calcular la matriz
inversa? Evidentemente cuando se deben resolver varios sistemas de ecuaciones
con la misma matriz de coeficientes A pero distintos vectores b.

3.4.7.1Método de eliminación de Gauss

Vamos a ilustrarlo con un caso particular de sistema de tres ecuaciones. La


generalización es inmediata. Dadas las ecuaciones:

175
Índice
Capítulo 3

(1 ) an xt + au x2 + a13x3 = ^

(2 ) a2\Xi + 0-22*2 + a23x3 = ^2

(3 ) a 3 i xi + a32x2 + <3 3 3 X3 = b3

donde al menos uno de los coeficientes arn, a2i, <231 es distinto de cero. Si a'n=0
reacomodamos las ecuaciones de tal manera que el coeficiente de x\ la primera
ecuación sea distinto de cero. En el primer paso, definimos un multiplicador m2:
&2l
an
y multiplicamos (1) por m2 y restamos dicho producto de la segunda ecuación, es
decir, hacemos (2) -m2(l), con lo que se obtiene una nueva ecuación
(4 ) (au - m2an ) x 1 + (a22 - m2al2 ) x 2 + ( a23 - m2al3) x 3 = b2 - m 2bl

! ! f

0 a22 a23 b2

De esta manera x\ se ha eliminado de la segunda ecuación. Definimos ahora:

a 22 = a 22 ~ m 2 a 12

a 23=¡a2 3 ~ m2a 13

¿ 2 = ¿ 2 - m2 ^
con lo que la ecuación (4) se convierte en:

(5) a22x 2 +a23x3 =b2


(es decir, reemplazamos (2) por (5)).
Definimos ahora un multiplicador para la tercera ecuación m3:

(en general mf=a\\la\\ i=2,3).


an
y multiplicamos (1) por m3 y lo restamos de (3), es decir, calculamos (3) - W3(l):
(a3i ~ m3al l ) xl + (a32 ~ m3a12) x 2 + (a33 - m3a 13) *3 = b3 - m f a

Jí U UW
f ! 1
0 a32 a33 b3

176
Índice
Capítulo 3

con lo que se llega a la ecuación (6 ):

(6 ) a32x 2 +a33x 3 =b3


Sustituimos ahora (3) por (6 ). Por lo tanto, las tres ecuaciones resultantes de este
proceso son:
(7) a ^ + a ^ +a13x 3 =b1

(8) a2 2 x 2 + ¿ 2 3 x3 = b2

(9 ) d3 2 x 2 + d3 3 x 3 = b3
Este sistema presenta la ventaja de que x\ aparece únicamente en la primera
ecuación.
Podemos ahora eliminar x2 de una de las dos últimas ecuaciones. Tomamos
ahora (si es cero se intercambian dos ecuaciones), a este elemento por el que
divide se le conoce como pivote.
Definimos:

m3 = ~ ^ " i = 3)
a 22 a 22

Multiplicamos (8 ) por y lo restamos de (9), es decir, se hace (9) - ( 8 )

(«32 ~ m3a22)x2 + («33 “ m 3 a 2 3 )x3 =b3 ~ m3 b2

0 a3 3 b3
I! I I I
a33 = a33 ~ m3a23
b3 =b 3 - m 3 b2
Sustituimos (9) por (10) de forma que queda:
(1 1 ) ( z ^ + a ^ +a ^ ^ b i

(12) a 2 2 x 2 + a2 3 x 3 = b2

(13) 0 3 3 X3 = b3
Debido a su apariencia este sistema de ecuaciones se denomina triangular.
Ahora es un proceso directo resolver el problema. En (13) se despeja x3 y su
valor se sustituye en ( 1 2 ) determinando y finalmente sustituyendo x2 y X3 en ( 1 1 )
se determina x\. Este proceso se denomina sustitución inversa:

177
Índice
Capítulo 3

h
X 3 = — ir-
«33
b2 - a23x 3
JCn — i
«22
^ - a13*3 - an x 2
X1 =
« 11
I II
Recordemos que 0, a 2 2 ^ 0 . Si (233 = 0 significa que el sistema original
es singular.
El método desarrollado es el de eliminación de Gauss con sustitución
inversa. Podemos generalizarlo sin dificultades para el caso de n ecuaciones con n
incógnitas.
Existe una modificación del método, debida a Jordán, en la cual la
eliminación se realiza no sólo en las ecuaciones de debajo sino también en las de
arriba. Así obtenemos finalmente una matriz de coeficientes diagonal (e incluso
unidad habitualmente) y se posee la solución sin nuevos cálculos.
Por otra parte el método de Gauss-Jordan (Press, 1992) produce
simultáneamente la solución de las ecuaciones y la matriz inversa. La matriz
inversa se puede obtener adicionalmente en el método de Gauss sin más que
considerar el conjunto de sistemas de ecuaciones:
Ax = I
tratando las columnas de I simultáneamente como n vectores b, con las columnas
de x como vectores solución correspondiente (x=A_1).
Veamos la aplicación del método de Gauss-Jordan a la inversión de
matrices.
A matriz cuadrada (n,n)
Problema: determinar X tal que AX = I
xi,x 2 ,...,xn vectores primera columna , segunda columna, etc de X.
In análogo (vectores unitarios).
AX = I puede ser sustituido por n sistemas de ecuaciones lineales, todos con
la misma matriz de coeficientes
Axr = Ir (r =l,2,..,n)
Todos estos sistemas tienen soluciones únicas (detA^O)

Como la matriz de los coeficientes es la misma para todos los sistemas,


comenzamos escribiendo A e I una junto a otra. A continuación se divide por a¡ 1 la
primera fila (se normaliza) para obtener un 1 en el elemento diagonal. Después se

178
Índice
Capítulo 3

elimina xi de todas las ecuaciones excepto la primera, repitiéndose el proceso


sucesivamente. Sólo se necesita almacenar durante el proceso n2 elementos no
triviales (ventajas de almacenamiento frente a Gauss). Cada paso de la eliminación
da una columna de la matriz unidad en la izquierda y al final resulta la matriz I a la
izquierda y A "1 a la derecha. Después de p pasos tenemos el esquema siguiente. La
fórmula usada para la reducción de la fila p-ésima es:
ll

<

Para las restantes filas:

-l a pk
p~X
ajk ~ aj k 1 ~ aJp
' aUPP
p~l

(1 ) ( 2 ) ... ( p ) O + i) ... («) (1 ) ( 2 ) .. • (P) (P + 1) ... ( n )

(1 ) 1 0 ... 0 a“l^
p + l •” n“ l,n
p an a\ 2 **• tfp 0 ”. 0

(2 ) 0 1 ... 0 na2,p+l
p — >n 2,n
p a21 a 22 **. a p p 0 .... 0

(P) o 0 ... 1 np np
p , p +1 “ • p,n < 1 < 2 •.. oFPtP 0 .. . 0

0 +1)0 o ... 0 na p+l,p+l


p ■■■ an p+l,i
p 7 na p+1,1
p an pp+ l , 2 — an p+l,p
p l1 ... 0

n n,p+l
p ” ■ n n,n
p
'w'

O
O

... 0 an,2 ■.. a£iP 0 .. . 1

Después de n pasos habremos obtenido la inversa A“1. Sólo es necesario


almacenar durante la computación los elementos que no son iguales a 0 o 1. El
elemento &p+i p+\ ^ el pivote del paso siguiente.
Finalmente, nótese que existen métodos iterativos, como por ejemplo el
método de Gauss-Seidel, que mejoran los anteriores procedimientos.

179
Índice
Capítulo 3

3.4.8 Diagonalización de matrices: obtención de valores y vectores propios

Recordemos la definición de vector propio y valor propio, que son las


soluciones de la ecuación:
A x = X x; (A - X I) x = 0
Obviamente cualquier múltiplo de x será también vector propio. Normalmente el
desarrollo del determinante y la búsqueda de las raíces del polinomio de grado n
(valores propios), es inviable salvo para n bajo. Por ello hay que acudir a otras
estrategias.
Ya vimos que el determinante permanece invariante ante transformaciones
de semejanza:
A S'1 A S
Puede conseguirse una transformación cuyo resultado sea una matriz diagonal. De
esta manera los elementos de la diagonal dan directamente los valores propios y los
vectores propios las columnas de las transformaciones acumuladas. No obstante, si
estamos interesados sólo en los valores propios, puede ser suficiente convertir la
matriz A en triangular (con todos los elementos por debajo de la diagonal iguales a
cero). Los elementos de la diagonal nos siguen dando los valores propios. Hay dos
estrategias para llevar a cabo esto:

a) Construir matrices de transformación diseñadas para tareas específicas,


por ejemplo anular un elemento no diagonal específico (transformación
de Jacobi) o una fila o columna entera (transformación Householder). Si
no se consigue una diagonalización completa en una secuencia finita de
transformaciones (que es lo habitual) se pueden utilizar técnicas de tipo
b) o proceder a una iteración.

b) Métodos de factorización. Supongamos que A se puede factorizar en L y


R, es decir, A = L R. En este caso,
L 1A = R
que conduce a
R L = L 1A L
y da un resultado equivalente a haber efectuado una transformación de
semejanza usando L como matriz de transformación. El método QR
explota esta idea

180
Índice
Capítulo 3

3.4.8.1 Método de Jacobi (matrices simétricas)


El método de Jacobi (Press, 1992) consiste en una secuencia de
transformaciones de semejanza ortogonales. Cada transformación (rotación de
Jacobi) es una rotación en el plano diseñada para aniquilar uno de los elementos no
diagonales. Transformaciones sucesivas deshacen ceros previos, pero los elementos
no diagonales no obstante se van haciendo cada vez más pequeños, hasta que la
matriz es diagonal con la precisión de la máquina.
Para una matriz real simétrica todos los valores propios son reales y existe
una matriz ortogonal real tal que O "1 A O es diagonal. Se intentará producir la
matriz diagonal mediante el producto de matrices ortogonales especiales. Entre los
elementos extradiagonales elegimos el de mayor módulo: \aik\= m ax. Los
elementos aih aik, aki (=aik) y a kk forman una submatriz (2 ,2 ) que puede llevarse
fácilmente a forma diagonal. Si:

se tiene:

siendo

2 2
da = aa eos cp + 2aik sen cp eos cp + akk sen cp

dik = dki = ~ (aa ~ akk)se n 9 C0SCP + aik ( c o s 2 <P " sen 2 cp)
2 2
dkk = a¡¡ sen cp - 2 aik sen 9? + akk cos cp

Ahora elegimos el ángulo cp tal que d,k = dk¡ = 0, lo que se consigue cuando,

t 2o cp = ------*
tg 2ai
aii ^kk

Esta ecuación proporciona 4 valores diferentes de cp. Para trabajar con giros lo más
Jt Jt
pequeños posibles, tom am os---- <cp ^
4 4

181

Índice
Capítulo 3

Haciendo:

1 si au s akk i
R = J ( a l¿ - a kk f +4afk y cr
1 si an < akk j
obtenemos:

sen 2 q) = 2 a aik /
cos2<J9 = o (an - a kk) / R

ya que el ángulo 2 <p debe pertenecer al primer cuadrante si tg 2 cp> 0 y al cuarto


cuadrante si tglcp < 0. Luego se tiene:

cp = ^ arctg[2aí¿ /(a u - a kk) si aü * a kk

f n ¡4 cuando aik > 0 ]


w =J l si a¡: = akk
* \-Jt/4 cuando ai k < 0 | kk

donde el valor de la función arctg se toma entre —jr/2 y n/2. De dichas ecuaciones
se llega a:

dü ^ ( aü +akk + ° R)
i
dkk= ^i.an +ak k - ° R)

di k = dk i = °

cumpliéndose que dn + dkk = au + akk y düdkk = auakk - afk ).


Este método puede generalizarse para matrices (n,n) haciendo un producto
sucesivo de rotaciones bidimensionales, O (i,k ) donde las matrices de
transformación 0 (i,k) tienen la forma anterior en para los elementos (i,i), (i,k), (k,i)
y (k,k),mientras que los restantes elementos son iguales a uno. En cada momento se
eligen los i, k tales que |a¿¿| = max. En las implementaciones habituales se va
recorriendo la matriz fila por fila, efectuando una rotación ik sólo si |<2 ¿¿|>£,
donde e es una tolerancia fijada (que suele cambiarse después de cada pasada). La
generalización a matrices hermíticas es inmediata.

182
Índice
Capítulo 3

3-5. C ALC U LO IN TE G R A L

3.5.1 Introducción

La integración de una función de una variable se define como la operación


inversa a la derivación. Desde un punto de vista gráfico puede entenderse como el
área bajo dicha curva.
La interpretación de la integral:
b
1 =f f( x ) d x
a

como el área bajo la curva f(x) frente a x entre x=a y x=b9 nos dirige de forma
natural al cálculo de la integral de forma numérica.

En los métodos de integración numérica se parte de la definición de integral


como límite de una suma de áreas y se trabaja con métodos que aproximen el valor
de esta suma con suficiente precisión.
El camino que se va a seguir consiste en lo siguiente: la integral definida
representa el área bajo la curva y=f(x) entre x = a y x=b, por lo tanto puede
calcularse laintegral dividiendo el intervalo de a y b en variosintervalos mas
pequeños, determinando el área de cada uno de ellos y finalmente sumando todas
ellas. Las técnicas que pueden utilizarse son generalmente de tres tipos:
• Los intervalos se seleccionan por anticipado, generalmente se escogen
iguales, de tal forma que los puntos extremos correspondan a valores
fácilmente calculables:
• Método de los trapecios
• Método de Runge-Kutta (Regla de Simpson)

183

Índice
Capítulo 3

• Los intervalos y su ubicación están dictados por el análisis, de tal


manera que se requiere primero la máxima precisión con un número
dado de intervalos y se permite que los intervalos queden determinados
por este requisito previo:
• Regla de Gauss
• El intervalo de integración no se subdivide en pequeños intervalos, sino
que se seleccionan puntos al azar determinándose posteriormente si esos
puntos caen o no bajo la curva:
• Método de Monte Cario

3.5.2Método de los trapecios

Un primer paso para aproximar el área bajo la curva consiste en suponer que
la función está compuesta de pequeños segmentos rectilíneos. La regla de los
trapecios se basa pues en aproximar la función por segmentos rectilíneos. Una línea
recta es la aproximación más sencilla y puede dar buenos resultados si se toman
intervalos pequeños.
En el método de los trapecios se aproxima una integral mediante la suma del
área de n trapecios. El procedimiento a seguir es el siguiente:
• Se divide el intervalo de integración [a,b] en n intervalos iguales de longitud h

b- a
h = -------
n

• Si uno de estos pequeños intervalos está definido por las abscisas x¡ y x/+y, el
área bajo la curvay=f(x) comprendido entre x¡ y x¡+i será:

184
Índice
Capítulo 3

■*;+i
Ii = / f{ x ) d x

Si h es lo suficientemente pequeño I¡ puede aproximarse por medio del área del


trapecio ABCD:
j atrapecio
li ~ ABCD

Ky¡ + y,-+i)
h~

De esta forma la integral puede determinarse como suma de las áreas de los n
trapecios formados, es decir:
b n-1
I = f f ( x ) d x ~ J j Ii =
i=0
1 1 1 1
2 ■
h(yo+ yú + 2 h(yi + yz) + - + - K y n-2 + yn- 1 ) + 2 h(jn- 1 + :
i
~Kyo + + 2 y2 + + 2^„_2 + 2 yn_1 + y n)

que puede escribirse de forma comprimida como:


n-1
I ~ - h (yo+yn) + 2 ^ y i
2 ¿=1
El método de los trapecios es exacto para polinomios de primer grado.

185
Índice
Capítulo 3

3.5.3 Método de Simpson

Para aumentar la precisión y velocidad de convergencia del método de los


trapecios se pueden utilizar fragmentos de parábola en lugar de segmentos
rectilíneos.
La regla de Simpson es una de las técnicas de integración más utilizada. Es
semejante a la regla de los trapecios en el hecho de que se divide el intervalo total
en varios intervalos menores y se aproxima el área de cada pequeño intervalo. Sin
embargo se diferencia porque se hace pasar una parábola por las tres coordenadas
de dos intervalos adyacentes.
El método de Simpson consiste en ajustar la función f(x) a un polinomio de
segundo grado

f ( x ) = ax + b x + c
Se divide el intervalo de integración [a ,b ] en n intervalos iguales (siendo n un
número p a r) de longitud h, h = (b -a )/n . Se consideran dos intervalos consecutivos, y se
calcula el área bajo la curva

mediante la fórmula:
h i i
A = f (a x 2 + bx + c)dx = —(2 ah2 + 6c) =—\ f ( h ) + f ( - h ) + 4 /( 0 ) ]
J,
-h
3 3

siendo
f ( h) = ah 2 +bh + c
f { - h ) = a/i2 - b h + c
/ ( 0) = c

186
Índice
Capítulo 3

Si realizamos una partición par de n intervalos de anchura h y ajustamos cada


tema de valores que definen dos intervalos consecutivos a la parábola obtendremos
finalmente:

A=3 + ^2 + 4 ^ ) + O2 + J 4 + 4j 3) + - + 0 «-2 + yn + 4y„_i)

que puede ser re-escrita de la forma:

n-2 n-1
A =-h Oo + yn) + 2 2 yi + A 2 ^ '
3 i=2 M
k:par k: impar
*0,n

El método aproxima la integral por la suma de los valores que toma la


función f(x) en una serie de puntos equiespaciados, multiplicados por unos
coeficientes denominados factores de peso, (úh que en este caso toman los valores:

/= 0

<y¿ = |/ z ( l , 4 , 2 ,4, ...,4,2,4,1)

La regla de Simpson es exacta para polinomios de hasta grado tres.

3.5.4 Método de Runge-Kutta

Constituye una generalización de la regla de Simpson para funciones de


varias variables. Permite resolver ecuaciones diferenciales de primer orden, dada
una condición inicial:

? = f(x,y)
X *o) = ^0

El método clásico de Runge-Kutta se puede definir mediante las cinco


ecuaciones siguientes:

187
Índice
Capítulo 3

h
y m+1 = y m + + 2 ^2+ 2 ^3 + ^4)

h = f ( xm>ym)
1 t< h hh \
h = f ( xm + 2 ^ m + - ^ )

7 í, h hk2 .
k3 = f ( x m + 2 ’ym + ~2~^

h = f ( xm +h,ym+ hk3)
De esta manera se pueden ir obteniendo sucesivos puntos ym+i a partir del punto
precedente ym (recuérdese que se dispone de la condición inicial y(x0)). Conduce al
método de Simpson para funciones f que sólo dependen de x
f(x,y) = F(x)

y =^ = f(x,y) = F(x) =>dy = F(x)dx


dx
x
y(x) = J F(x)dx
xo
Hagamos h=2 p => p=h/ 2 y definamos:
F j = F ( x 0 +jp)

Se tiene entonces:

ym = + m h ) = X * o + 2mP )
Definimos ahora
Yj =y(xo + jp )
de forma que

ym ^2 /n
Entonces la expresión:
h
y m+1 = y m + + 2&2+ 2^3 + ^4)
se convierte en:

188
Índice
Capítulo 3

^2m +2 ^2 m ^ (-^2 m ^^Zm +\ ^2m +2)

en donde m = 0, 1,2,..., n-1 (para asegurar un número par de intervalos), con casos
particulares

l 2 - * o = f ( ^ o + 4F 1 + F2)

Í 4 - Í 2 = f ( ^ 2 + 4 F 3 + F4)

* 2 « -2 " *2rc-4 = ^ ( E2 n - 4 + 4 ^ 2 n -3 + E2 n - 2 )

Y2n ~ Y2n-2 = ^ ( F2n-2 + 4 F2„_1 + F2„)

Sumando estas últimas ecuaciones se obtiene

*2« - *0 = + 4 / \ + 2F2 + ... + 2F2n_2 + 4F2n_í + Fln )

que es precisamente la regla de Simpson para la evaluación de la integral:

X
y( x) = j F ( x ) d x
xo

siendo x = x 0 + nh.
El método clásico de Runge-Kutta de 4o orden constituye una generalización
de la regla de Simpson consistiendo esta generalización en no restringirse a
funciones de una variable.

3.5.5 Cuadratura de Gauss

Los métodos de los trapecios y Simpson se basan en la aproximación de la


integral por la suma de los valores que toma la función en una serie de puntos que
están situados a la misma distancia. C. F. Gauss sugirió que se podría aumentar de
forma significativa la precisión del algoritmo de cálculo si, tanto los puntos en los

189
Índice
Capítulo 3

que se calcula la función, como los factores de peso, se elegían de forma que la
precisión total fuera la óptima. Si en la aproximación de la integral se emplean los
valores de la función en los puntos x0, x \ 9 ...,xn tenemos un total de 2 n + 2
((n+l)+(n+l)) parámetros a determinar (los (n+l)x¡ y sus correspondientes factores
de peso (o¡). Sabiendo que un polinomio de grado N tiene N+l coeficientes, el
algoritmo de Gauss correspondiente a n+l puntos debe dar un resultado exacto
para cualquier polinomio de grado N=2n+1 o menor (N+l=2n+2 =s> N=2n+1).
El primer paso que hay que dar es transformar un integral genérica entre
unos límites de integración a y b en una integral entre los límites - 1 y + 1 :

b +1

a -1

el cambio de variable será:

b- a
a =-m + n m=
2
b = m +n
a +b
n =
2
con lo que

y
b +1 +1

Una vez transformada la integral habrá que determinar los parámetros


o)o, coi, (1)2,..., ü)n:zo, Zi, Z2,..., z n,
de forma que la expresión

+1
/ g(z)dz - co0g(z0) +(0\g{zi) +... + cong(zn)
-1

190
Índice
Capítulo 3

tenga la precisión óptima. Por ejemplo, para n=l hay que determinar 4 parámetros
(Do, coi, zo, z¡:

+1
f g(z)dz - <w0 SOo) +®l«(«l)
-1

Estos parámetros deberán cumplir la condición siguiente: la función g(z) debe ser
exacta para un polinomio de grado 3 o menor, aplicando esta condición
sucesivamente a las funciones a, az, az2 y az3 obtenemos las siguientes relaciones:

+1
Jadz = 2a = > ü c ú q + a c o i = > cúq + o ) \ = 2
-1
+1
J azdz = O => atüQZQ + => + =O
-1
+1 ^
2 2 2 2 2
faz dz = —a=> ücoqzq + cho\Z\ => <«ozO + =T
i 3 3
+l
^ 'i 'í
J a z dz = 0=> ücoqZq + => cü0 Zo + ^ 1^ 1 = O
-l

La solución de este sistema de 4 ecuaciones con 4 incógnitas será:

COq = =1

La integral queda entonces en la forma:

f s ( z y z . S( - J ¡ ) + g( ^ )

donde

191
Índice
Capítulo 3

1 1 , ,i-a 1 ¿ +a
SW 3 ^ 2 ^ 2 V3 + 2

La precisión de esta aproximación dependerá de cómo la función f(x) se aproxima a


un polinomio de grado 3 o inferior.

3.5.6 Método de Monte Cario

Se basa en el procedimiento de seleccionar puntos al azar, es decir,


conjuntos de puntos (x,y) dentro de un área rectangular y determinar
posteriormente si esos puntos caen bajo la curva. De esta forma puede determinarse
una aproximación de la probabilidad que tiene un punto seleccionado al azar de
caer bajo la curva:

es decir,

b
I = J f ( x) dx = área bajo la curva
a

Precisa de un generador de números al azar para obtener los pares de valores


(x ,y ), generalmente serán números comprendidos entre 0 y l que deben
multiplicarse por los factores de escala correspondientes que serán los lados del
rectángulo. A continuación deben contabilizarse cuántos de estos puntos caen bajo
la curva f(x). Un punto generado al azar (xi}y¡) caerá bajo la curva si: *

(x¿,y¿) punto bajo la curva si y¿ < f(x¿)

192
Índice
Capítulo 3

Conocidos el número total de puntos seleccionados y, entre ellos, el número


que caen bajo la curva, se determina la probabilidad que tiene un punto
seleccionado al azar de caer bajo la curva:

^ , n~ de puntos bajo la curva


Probabilidad = ------------------ -------------
n~ total de puntos

y a partir de esta probabilidad se calcula el valor de la integral como el área bajo la


curva:

área bajo la curva = Probabilidad x área rectangular total

El método de integración numérica de Monte Cario constituye un


procedimiento de cálculo bastante simple pero requiere la generación de un numero
de puntos lo suficientemente elevado.

3.5.7 Comparación de métodos

No se pueden derivar conclusiones válidas de carácter general para los


distintos métodos, sin embargo las siguientes observaciones tienen un grado de
aplicabilidad muy amplio.

• La regla de Simpson con n puntos proporciona la misma precisión


que la regla de los trapecios con 2n puntos. En consecuencia, para
obtener la misma precisión, la regla de Simpson requiere
aproximadamente la mitad de trabajo que requiere la regla de los
trapecios puesto que hay que evaluar la mitad de las ordenadas.

• La cuadratura de Gauss requiere aproximadamente la mitad del


trabajo requerido por la regla de Simpson para obtener la misma
precisión.

• Para integrar datos experimentales, la cuadratura de Gauss


únicamente se puede utilizar si las abscisas se seleccionan de
antemano, lo que raramente ocurre. La regla de Simpson, en cambio,
se puede aplicar siempre que los pares de intervalos adyacentes sean
iguales. Si las abscisas están espaciadas al azar el único de los
métodos que se puede utilizar es el de los trapecios.

193
Índice
Capítulo 3

3.6. O PTIM IZA C IÓ N DE FUNCIO NES

3.6.1 Introducción

Supongamos una función f que depende de una o varias variables. El


problema que se aborda en este capítulo es el de obtener el valor de las variables
para las cuales f toma su valor mínimo. De ahí que a la optimización también se le
conozca como minimización (el problema de maximización está trivialmente
relacionado con el de minimización). El objetivo computacional será minimizar lo
más rápidamente posible y con el menor coste de memoria. Habitualmente esto
significa evaluar f el menor número de veces posible.
El mínimo puede ser local (el valor más bajo en una región finita) o global
(el verdadero valor más bajo de la función). En general encontrar el mínimo global
puede ser difícil. Para ello dos estrategias pueden ser las siguientes:
•B uscar mínimos locales comenzando desde valores iniciales muy
diferentes de las variables independientes.
• Perturbar un mínimo local tomando una amplitud finita para que lo aleje
suficientemente. A continuación ver si el algoritmo de optimización
regresa al mínimo local o encuentra otro.
En este capítulo nos centraremos en técnicas de optimización sin
restricciones. La optimización con restricciones puede ser muy importante en
ocasiones pero cae fuera de los objetivos marcados.

3.6.2 Caracterización de puntos singulares

En primer lugar vamos a ver cómo se puede caracterizar la naturaleza de los


puntos singulares en la función problema. Definiremos el gradiente como el vector
formado por las primeras derivadas de la función con respecto de las variables:
df/dxi, df/3x2, 3f/dx3, ..., 3f/dxn, {xi}i=l,n
Se define el Hessiano como la matriz formada por las derivadas segundas de
la función con respecto a las variables xi? xj, cuyos elementos son:

( d2f / d x í2 d2f / d x 1dx2 d2f / d x 1dx3 .... d1f ! d x l dxn \


d2f / d x 22 d2f / d x z dx3 .... d2f / d x 2dxn
d2f / d x 32 .... d2f / d x 3dxn

d2f / d x 2
\

194
Índice
Capítulo 3

La condición de máximo o mínimo local se traduce en que el vector


gradiente ha de tener longitud cero. La naturaleza del punto estacionario viene
fijada por el Hessiano:
* Todos los valores propios son positivos: mínimo local
•Algún valores propios negativo: máximo local de grado n (n=
número de valores propios negativos). Si n=l se tiene un punto de
silla de primer orden. En otros casos lo será de grado n.

3.6.3 Mínimos de funciones de una variable

Vamos a considerar en primer lugar, por su sencillez, el caso de


optimización de funciones de una variable, ya que la mayoría de métodos para el
caso multidimensional utilizan algún algoritmo monodimensional.

3.6.3.1 Métodos de interpolación

Supongamos que la función f(x) tiene un mínimo entre los puntos x ’k=xk-hk
y x»k=xk+hk, para unos valores dados de xk y hk. Designaremos a los valores de la
función en xk, x ’k y x»k por f 0 k, fik y ^2k, respectivamente. Suponiendo que
aproximadamente la función es parabólica en el intervalo, y dado que se conocen
tres puntos en dicha parábola, el punto mínimo se puede obtener a partir de la
fórmula de interpolación:
Xk+i = xk -[hk (fiu-fiO/2 (f2k-2fok+fik)]
Tomamos ahora hk+i<hk (en general se suelen tomar criterios del tipo hk=hk.
i/ak, con a=2, 3) y repetimos el proceso hasta que vayamos acotando sucesivamente
el mínimo en una región muy pequeña, dentro de un criterio de precisión
previamente fijado. El método en concreto se conoce como interpolación
cuadrática.

3.6.3.2 Método del gradiente

Consideremos ahora una función f(x) y hagamos una expansión en serie de


Taylor en el entorno de un punto Xk. Para un punto Xk+i tal que Xk+i=Xk+dk (siempre
que el desplazamiento dk sea suficientemente pequeño), y truncando la expansión
en el término cuadrático, tenemos
f(xk+i) =f(xk+dk) = f (xif) + f ’(X k ) dk + 1/2 f " (x0 dk

195
Índice
Capítulo 3

Tomando dk = -k f ’(xk), donde k es una constante positiva, resulta


f(xk+¡) = f(xk+dk) = f ( x 0 - k [ f ’(Xk)]2 + 1/2 k2 [ f ’( x O f f ' M
Si además se considera que el término que contiene a k2 es suficientemente
pequeño (lo cual es posible eligiendo convenientemente k), resulta
f(xk+j) = f(xií) - k [ f ’(xií)]2 <f(xk)
con lo cual f(xk+i) está más próximo al valor mínimo de f(x) que lo estaba f(xk), y
por lo tanto se avanza en la dirección correcta. La denominación de método del
gradiente hace referencia a que la escala, dk, es un múltiplo del gradiente de f(x) en
el punto x=xk.

3.6 .3.3 Método de Newton-Raphson

Lo consideraremos aparte de los demás por sus características especiales.


Este es un método diseñado para resolver sistemas de ecuaciones no lineales. No
obstante este problema se encuentra en cierto modo relacionado con el de la
optimización. El problema básico en una dimensión es obtener el punto para el cual
la primera derivada de la función se hace cero, esto es g(x)= 0 , siendo la función
g(x)=f ’(x). Por lo tanto si se dispone de g(x) el problema se reduce a encontrar las
raíces de esa ecuación, para lo cual se puede aplicar por ejemplo el método de
Newton-Raphson. Este método parte de nuevo de la expansión en serie de Taylor
de la función g(x)

g(x+d) = g(x) + g ’(x) d + 1/2 g"(x) d2 + ....

Para valores suficientemente pequeños del desplazamiento d y en funciones con


buen comportamiento, los términos más allá del lineal son despreciables, por lo
queg(x+d) = 0 implica d = -g(x)/g’(x).
El método de Newton-Raphson es un procedimiento iterativo. Se da un valor
inicial aproximado para la raíz, o intervalo en el cual sabemos que se encuentra la
raíz, y se van realizando pasos hasta que nos acercamos suficientemente a la
solución dentro de la precisión deseada.
Sea Xk una aproximación a una raíz aislada de una ecuación g(x)=G,
difiriendo la raíz verdadera en una cuantía dk. Por aplicación de la expresión
deducida anteriormente para el desplazamiento d, queda
Xk+l = x k - g ( x 0 / g ,(x0

de tal manera que


dk+j = d k - g ( x 0 / g ’(X0

196
Índice
Capítulo 3

Se puede demostrar que dk+i = - dk2 g" (xk)/2g’(xk), es decir que el método
converge cuadráticamente, ya que el error original dk se ha sustituido por un error
dk2. De esta manera cerca de la raíz el número de cifras significativas
aproximadamente se dobla en cada etapa. Esta convergencia hace que el método
sea muy eficiente. El precio a pagar es el cálculo de la derivada en cada etapa. En
los casos en que esto sea un problema se puede aplicar una diferencia numérica
para calcular aproximadamente la derivada local

g ,(x) _ g(x + d x ) - g ( x )
dx

aunque este procedimiento no es recomendable, ya que supone calcular dos veces


la función g, y si dx se toma muy pequeño puede repercutir en errores de redondeo,
mientras que si se toma muy grande se pierde el orden de convergencia cuadrática
del método. En general para que el método dé buenos resultados Xk'debe estar
próximo a la raíz y g»(x) no debe ser excesivamente grande.
El método puede ser inmediatamente generalizado para obtener la solución
de ecuaciones no lineales simultáneas en n variables:

gi(X) = gi(Xl>X2, - , xn) = 0

sea Xk una buena aproximación a la solución verdadera. El teorema de Taylor para


n variables da para cada función g¡:

0 = g¡(x) = gi(x0 + (xj-xjk) (dg/dxj)x=xk + ....

Despreciando los términos de segundo orden, hallamos Xk+i como mejor


aproximación que Xk, donde

n
(xj,k+i ~ Xjh) (dg/dxj)x=xk = - gi(x0 i=1,2 ... n
h 1

o, en forma matricial

Jóxk=-gk

donde J es la matriz Jacobiana, cuya expresión es:

197
Índice
Capítulo 3

(dg1 /dx1 dg1 / dx2 - dgí / dxn )


dg2 / dx1 dg2 /dx2 ... dg2 /dxn

[dgn / dxl dgn / dx2 ... dgn / dxn )

y todas las derivadas se calculan en x=xk y 5xk=xk+i-xk. Las correcciones se van


añadiendo y el proceso se resuelve iterativamente.

3.6.4 Optimización de funciones de varias variables

Los métodos de optimización para funciones de varias variables se pueden


dividir básicamente en tres tipos, dependiendo de que sólo se emplee la función, se
calcule la función y el gradiente, o que se evalúe la función, el gradiente y el
Hessiano (Schlegel, 1995).
• Los métodos que sólo emplean la función son de aplicabilidad más
general, pero suelen converger más lentamente. A esta categoría
pertenece el método simplex, para el cual el número de cálculos de la
función requeridos para la convergencia en un caso n-dimensional es n2.
Generalmente para optimizaciones con más de tres o cuatro
dimensiones cuando no se dispone de gradientes analíticos es preferible
calcular los gradientes numéricamente y usar uno de los métodos
basados en el gradiente.
• Si se dispone de los gradientes, la velocidad de convergencia puede ser
mejorada, puesto que cada paso proporciona n+ 1 piezas adicionales de
información sobre la topología de la función (la función y n
componentes del gradiente en el punto en cuestión). El método de
máxima pendiente {steepest descent) es el más simple (en cada paso
busca el mínimo en la dirección descendente siguiendo el gradiente
negativo). La ventaja es que disminuye rápidamente la energía, pero
presenta dos inconvenientes: dos pasos consecutivos son siempre
perpendiculares y a medida que se acerca al mínimo la convergencia
disminuye. Los métodos de gradiente conjugado son mucho más
eficientes. La búsqueda se hace a lo largo de la línea construida de tal
manera que sea conjugada a la previa: d\= -g¡ + b d¡_i (mezcla del
gradiente negativo y la línea de desplazamiento anterior). Finalmente
tendríamos los métodos que podemos denominar cuasi-Newton, que
utilizan una expansión cuadrática y en los cuales se estima el Hessiano
inicialmente que se va actualizando en cada etapa.
• Los métodos basados en el Hessiano (Newton) son útiles cuando
aparecen dificultades con otros métodos. Si el Hessiano no se puede

198
Índice
Capítulo 3

calcular analíticamente, se puede obtener numéricamente diferenciando


los gradientes. La determinación de la dirección de búsqueda y el
control del desplazamiento son similares a los métodos basados en el
gradiente. Pueden ser considerados como casos especiales del apartado
b) pero en vez de actualizar el Hessiano, éste se calcula explícitamente.
Finalmente consideraremos una categoría aparte que es la de los métodos de
simulated annealing, que se han mostrado de utilidad particularmente a la hora de
buscar mínimos globales cuando hay un número elevado de mínimos locales.

3.6.4.1 Método simplex

A diferencia de otros métodos de minimización multidimensional no hace


uso de un algoritmo de minimización en una dimensión. El método además
requiere sólo el cálculo de la función, no de las derivadas. Aunque no es el más
eficiente en términos de computación es relativamente fácil de implementar.
Un simplex es la figura geométrica que consiste, en n dimensiones, de n+1
puntos (o vértices) y todas sus líneas de conexión, caras poligonales, etc. En dos
dimensiones, un simplex es un triángulo. En tres dimensiones es un tetraedro, no
necesariamente regular. En general estaremos interesados sólo en simplex que son
no degenerados, esto es, que incluyen un volumen finito interno n-dimensional. Si
un punto de un simplex no degenerado se toma como origen, los n otros puntos
definen direcciones vectoriales que sirven de base para el espacio vectorial n-
dimensional.
En los métodos de optimización multidimensionales el procedimiento es
tomar un punto inicial (initial guess), esto es un vector de dimensión n en las n
variables independientes. El algoritmo se supone que descenderá en la topografía
n-dimensional hasta que encuentre un mínimo local. En el método simplex (Press,
1992) se comienza con n+1 puntos que definan un simplex inicial. Si tomamos uno
de esos puntos como Po, entonces se pueden tomar los otros n puntos como
Pi=P0+Xe¡, donde e¡ son los n vectores unitarios, y donde X es una constante que es
el guess para la longitud de escala característica del problema (alternativamente se
pueden tomar diferentes X\ para cada vector dirección). El método simplex toma
ahora una serie de pasos, que pueden ser de los tipos siguientes:
• Reflexiones: moviendo el punto del simplex donde la función es
mayor (punto más alto) a través de la cara opuesta del simplex a un punto
inferior. Mantienen el volumen del simplex.
• Expansiones: el método puede expandir el simplex en una u otra
dirección para tomar pasos mayores.
• Contracciones: cuando alcanza un valle, el método contrae en la
dirección transversal y trata de deséender por el valle. También es posible

199
Índice
Capítulo 3

efectuar contracciones en todas las direcciones, empujando alrededor de su


punto más bajo.
Se progresa en diferentes etapas hasta que se alcanza el criterio de tolerancia.

3.6.4.2 Métodos basados en el gradiente y el Hessiano

Haciendo un desarrollo de Taylor para la función en el entorno del mínimo


x0 se obtiene

f(x) = f(x0) + 2) Axí (df/dx¡)0 + ^ Ax¡ Áxk (c^f/dxidx^o + •••


i i,k
donde x ={xi,x2,x3, ...} es el vector constituido por las n coordenadas y x0 es el
vector correspondiente al punto de referencia. Ax¡=xi-(xi)0 y Axk=xk-(xk)0
representan la separación de cada variable x respecto de la correspondiente
coordenada del mínimo.
Si definimos el vector gradiente en el mínimo por go = (df/dx¡)0 y el Hessiano
en el mínimo por (d2 f7dx¡dxk)o, derivando la función tenemos:
df/dx = g = g o + H 0 (x-x0)
y por lo tanto la condición de mínimo se traduce en g 0 + H 0 (x-x0) = 0. En
consecuencia
x-x0 = - Ho'1go
llamando d0 = x-x0 al desplazamiento de la geometría en la dirección del mínimo,
podemos pasar a otros puntos sucesivamente de la siguiente manera:
xi = Xo + do, se calcula el gradiente en x\ (gi) y el Hessiano en xi (Hi) y se
obtiene d\ mediante la fórmula:
di = x - xi
x2 = xi + di, se calcula el gradiente en X2 (g2) y el Hessiano en x2 (H2 ) y se
obtiene d 2 de la misma forma que se calculó di.
Operando iterativamente:
Xk = xk-i + dk-i se calcula el gradiente en Xk (gk) y el Hessiano en Xk (Hk) y se
obtiene dk mediante la expresión dk = x - xk
El proceso continúa hasta que dk ^ e y gk ^ e’, es decir se hacen menores
que una tolerancia fijada previamente.
Los diferentes algoritmos varían en la manera en que se actualiza el
Hessiano estimado en cada punto, en cómo se determina la dirección de búsqueda y
en como se realiza la optimización monodimensional en x = x0 - Ho"1 go (Schlegel,

200
Índice
Capítulo 3

1987; Jensen, 1999). Por ejemplo, uno de los algoritmos más habituales, conocido
como Davidon-Fletcher-Powell, (Fletcher, 1963) utiliza la siguiente expresión para
actualizar el Hessiano:

t i - l ÍT -1 . Ax* Ax^ K k - f 1Ag¿ Agkl H ^ r 1


Jl1¿ = íl^_1 H------ I-------------------- Z--------- 1-----------
Ax* Ag¿ A g /H ^ ! ^ g *

3.6.4.3 Simulated annealing

Esta técnica ha recibido recientemente considerable atención (Kirkpatrick,


1983), ya que es adecuada para problemas de optimización de gran escala,
especialmente en aquellos en que el mínimo global puede estar oculto entre varios
mínimos locales. Generalmente es útil en los problemas denominados de
minimización combinatoria, donde hay una función a minimizar, pero el espacio
sobre el cual la función está definida no es simplemente el espacio n-dimensional
de n parámetros continuamente variables, sino que se trata de un espacio de
configuraciones discreto pero muy grande. Ello hace que no pueda ser explorado
exhaustivamente. Además, dado que el conjunto es discreto no hay posibilidad de
acudir a una técnica de descenso continuo en la dirección favorable. El concepto
de dirección puede incluso que carezca de significado en el espacio de
configuraciones. El método de simulated annealing utiliza pasos al azar (random).
La denominación del método proviene de una analogía con algunas
situaciones que se encuentran en Termodinámica, específicamente con la manera
en que los líquidos pasan al estado sólido o los metales se enfrían. A altas
temperaturas las moléculas de un líquido se mueven con gran libertad unas con
respecto a otras. Si el líquido se enfría lentamente la movilidad se va perdiendo, y
son capaces de irse orientando y formar un cristal completamente ordenado. Este
cristal es el estado de mínima energía para el sistema. En cambio sin un metal
líquido se enfría rápidamente no es capaz de alcanzar ese estado, sino que acaba en
un estado policristalino o amorfo con una energía superior. La esencia del proceso
es un enfriamiento lento, que permite suficiente tiempo para la redistribución de los
átomos o moléculas a medida que pierden movilidad.
Aunque la analogía no sea exacta, en cierto sentido los algoritmos de
optimización corresponden a un enfriamiento rápido* ya que desde el punto de
partida tratan de ir inmediatamente por línea descendente hacia el mínimo. En
cambio en la naturaleza el proceso de minimización es diferente. Recordando la
distribución de probabilidad de Boltzmann Prob(E) oc exp (-E/kT) expresa la idea
de que un sistema en equilibrio a tem peratura T tiene su energía
probabilísticamente distribuida entre los diferentes estados de energía E. Incluso a
baja temperatura existe una posibilidad, aunque pequeña, de que el sistema esté en
un estado de alta energía. Por lo tanto hay una posibilidad para el sistema de salir
del mínimo de energía local pasando a uno mejor, más global. En otras palabras, el

201
Índice
Capítulo 3

sistema generalmente irá en sentido descendente, pero a veces puede ir en sentido


ascendente.
Metrópolis y col. (Metrópolis, 1953) fueron los primeros en incorporar estas
ideas en los cálculos numéricos. Si provocamos un cambio al azar en un sistema
modificando su configuración pasando de energía E¡ a E2, el nuevo estado se
tomará como punto de partida para el siguiente paso si E2 <Ei (es decir, se asigna
probabilidad 1). En caso contrario se le asigna una probabilidad p= exp[-(E2-
Ei)/kT] y se compara con un número al azar entre 0 y 1, aceptándose o no la nueva
geometría como punto inicial del siguiente paso. Este esquema general en el que el
sistema toma generalmente un camino descendente, pero algunas veces toma uno
ascendente, se conoce como algoritmo de Metrópolis.
Para hacer un uso genérico del algoritmo de Metrópolis hay que
proporcionar los siguientes elementos:

• Una descripción de posibles configuraciones del sistema.

• Un generador de cambios al azar en la configuración. Estos cambios son


las opciones presentadas al sistema. Una función objetivo E (análoga a la
energía) cuya minimización es el objetivo del procedimiento.

• Un parámetro de control T (análogo a la temperatura) y un esquema de


enfriamiento, que establezca cómo es disminuida de latos a bajos valores,
es decir después de cuantos cambios al azar en la configuración se toma
cada paso descendente de T, así como el tamaño del paso.

Generalmente una búsqueda puede requerir un número muy elevado de


pasos. En química se aplica por ejemplo en tratamientos de mecánica molecular
sobre macromoléculas (requiriendo del orden de 1 0 4- 1 0 8 pasos), pero su
aplicabilidad práctica en cálculos de orbitales moleculares se encuentra muy
limitada.

202
Índice
Capítulo 3

3.7. ANÁLISIS M U LTIV A R IA N TE

3.7.1 Objeto y tipos

La manera científica de definir un objeto es midiendo su comportamiento


ante múltiples propiedades. De esta forma, para cada objeto 0¡ de un conjunto de
objetos O podemos definir un vector que nos define el comportamiento de dicho
objeto ante todas las propiedades medidas, generando de esta forma un vector de
propiedades, 0 ¡
O j — (Pü?P¡2?P¡3? •••? Pin)

Dicho vector nos define el objeto de forma inequívoca.


En algunos casos, uno puede plantearse hasta que punto las propiedades
que se han elegido para definir el objeto son realmente útiles, dado que muchas de
estas propiedades pueden ser dependientes entre si, por lo que nos darían medidas
redundantes. Por otra parte, establecido el conjunto de propiedades independientes,
nos interesará el saber cuan similares son los objetos entre si. El análisis de factores
(factor analysis)es un método diseñado para determinar el grado de independencia
de las propiedades elegidas para definir nuestros objetos. El análisis de
agrupaciones (clustér analysis) nos permite determinar el grado de similitud entre
los objetos, es decir, como se pueden agrupar en clases. Seguidamente describimos
de forma somera cada uno de estos dos métodos (ver Auf Der Heyde para ejemplos
y referencias).

3.7.2 Análisis de factores (factor analysis)

Dado un conjunto de m objetos O, cuyas propiedades se han intentado


establecer midiendo su comportamiento con respecto a un conjunto de n
propiedades, para cada objeto se tiene el vector de comportamiento 0 ¡ mostrado
arriba. Por lo tanto, podemos definir una matriz de distancias D de dimensión
(m,n) sin mas que agrupar todos los vectores de comportamiento:

(Pi 1 Pn
o2
(°l) ' P\n\
P21 Pl2 ' '• P2n
D= -

,Onj \Pm\ Pm2 PmnJ


Nótese que, por definición, cada elemento de D cumple la relación D¡j=p¡j.
Es posible definir para cada propiedad la media (dj ) y la varianza (Sj2),
definida como el cuadrado de la desviación standard, cuyas expresiones se calculan
por medio de las ecuaciones:

203
Índice
Capítulo 3

El grado de asociación entre las propiedades viene dado por la matriz de


covarianza C, una matriz real y simétrica de dimensión (n,n) definida como

Los elementos diagonales de dicha matriz (C¡¡) son la varianza de cada una de las
propiedades (es decir, nos miden la dispersión de los valores de cada propiedad),
mientras que los valores de fuera de la diagonal nos miden el grado de
acoplamiento entre las propiedades (cuanto mayor en elemento C¡j, mas acopladas
las propiedades i y j). Se puede normalizar la covarianza, obteniéndose así la
denominada matriz de correlación R , que se define como

Los valores de la matriz de correlación están todos acotados entre +1 y -1.


Si diagonalizamos la matriz de covarianza C veremos las propiedades que
son redundantes (aquellas cuyos valores propios sean próximos a cero), así como
las propiedades que nos permiten describir los resultados obtenidos con un máximo
de fiabilidad. Para ello, basta con resolver la ecuación de valores-vectores propios
de la matriz de covarianza
C E = E A

siendo E a matriz de vectores propios y A la de valores propios. Obviamente, si la


matriz de covarianza es diagonal (es decir, ninguna propiedad está acoplada con las
otras) E=1 y A=C. Por lo tanto, para obtener posibles dependencias entre las
propiedades es necesario que los elementos no-diagonales de C sean lo mas grande
posibles.
Cuando C es no-diagonal, sus valores propios A nos dan información sobre
las posibles dependencias entre las propiedades: aparecerán tantos valores propios
iguales a cero como dependencias entre propiedades existan. Al mismo tiempo,
para los valores propios diferentes de cero es posible calcular el grado de
importancia que tienen para representar el conjunto de propiedades, es decir, su
peso, definido como:

204
Índice
Capítulo 3

peso = f^ li xlOO

/ =1
Así, si los valores propios para un sistema de tres propiedades son 30.17, 3.22 y
1.36 , sabemos que un 8 6 % de las propiedades queda representado por la
combinación de propiedades que se muestra en el primer vector propio, un 9.3%
con el segundo vector propio, y un 3.9% con el tercero. En un caso como este,
quiere decir que la combinación de propiedades que conforman el primer vector
propio es capaz de describir las propiedades del conjunto de objetos con un mínimo
de pérdida de información. Esta es la gran utilidad del análisis de factores.

3.7.3 Análisis de agrupaciones (cluster analysis)

Tiene por objetivo buscar agrupar los objetos en grupos que presenten
propiedades similares. Para ello, trata cada conjunto de propiedades de un objeto 0¡
como un vector de propiedades y calcula las distancias euclídeas entre dichos
vectores (xy), definidas mediante la expresión:

*í¡ - J É < 4 í - V - K - D j)(D ( - D j f


U =1
El proceso se visualiza en la Figura 3.2

Figura 3.2. D iagram a m ostrando el resultado de un análisis de agrupaciones en fu n ció n de


dos propiedades (p, y p 2) en el que se fo rm a n dos grupos, em pleando el criterio de que
cada punto diste de su m as cercano vecino m enos de e, m ientras que hay otro grupo con un
umbral de e2.

205
Índice
Capítulo 3

Conocida la matriz de distancias, es posible agrupar los puntos en grupos. Una


forma de definir dichos grupos es viendo que la distancia a su vecino mas cercano
es menor que un determinado umbral £. Esto da lugar a agrupaciones de puntos
como las que se muestran en la Figura 2, donde tenemos dos conjuntos de objetos
con propiedades similares. Las agrupaciones y su número, obviamente, dependen
de los valores del umbral tomado. Deben de tomarse valores que tengan significado
físico para el problema a tratar, sino se corre el peligro de tener agrupaciones con
un solo elemento, o agrupaciones que incluyan a todos los elementos.

3.8. O P T IM IZ A C IÓ N Y P A R A L E L IZ A C IÓ N D E PR O G R A M A S
FO RTR A N

3.8.1 Optimización de programas

Una vez que el programa se ha diseñado, codificado en FORTRAN


correctamente, montado para producir un ejecutable, y comprobado que los
resultados para una serie de test representativos son correctos, podría pensarse que
la tarea del programador ha terminado. Sin embargo, no siempre es así. Queda una
última etapa, que es la de conseguir que el código sea lo más rápido posible, lo que
será esencial para poder llevar a cabo algunos estudios que requieran tiempos de
CPU altos, así como para la óptima utilización de los recursos informáticos
disponibles. A esta fase de la generación de un programa se la denomina
optimización.
El grado de optimización de un código se mira viendo el tiempo que tarda
la ejecución de la misma tarea con diferentes niveles de optimización. Existen
herramientas para cada máquina que proporciona el vendedor. Alternativamente,
puede monitorizarse el tiempo que se tarda en cada parte del programa mediante
llamadas al reloj del sistema. Esto se hace empleando instrucciones de 1 tipo
TO = SECNDS(O.O)
la primera vez que se llama a dicha función, y del tipo
TI=SECNDS(TO)
las veces sucesivas. Esto nos da el tiempo de ejecución desde la primera llamada
(realizada con el parámetro 0.0). SECNDS es una FUNCTION de las librerías
FORTRAN-77.
Los compiladores modernos de FORTRAN llevan todos incluidas opciones
automáticas de optimización, en la que el mismo compilador realiza una serie de
tareas básicas que sirven para mejorar la velocidad del código. Las tareas
específicas dependen de cada compilador y fabricante, pero en todo caso, es
posible encontrar en la mayoría de los casos los siguientes niveles de optimización:

206
Índice
Capítulo 3

Nivel 0 : No se hace optimización


Nivel 1: Optimización básica
Nivel 2: Se optimiza el código dentro de cada subprograma
Nivel 3: Se optimiza el código dentro de cada subprograma y globalmente.
No siempre es posible llegar al nivel 3 de optimización, dado que a veces el
compilador da errores en la optimización, o se producen resultados numéricos
espúreos con el código optimizado automáticamente. Estos niveles de optimización
se activan mediante la opción -On en la línea de llamada al compilador, siendo n el
nivel de optimización pedido:
f77 -03 programa./
Además de la optimización automática,, es posible crear programas
optimizados o que permitan alcanzar el máximo nivel de optimización automática
siguiendo las siguientes directrices básicas:
a) ordenar los DO dobles para el trabajo de los elementos de una matriz, de
forma que las filas se ejecuten primero. Es decir, es mejor escribir
DO 20 J=1,M
DO 10 1=1,N
A(I,J)=B(I,J)
10 CONTINUE
20 CONTINUE
que escribir:
DO 10 1=1,N
DO 20 J=1,M
A(I,J)=B(I,J)
20 CONTINUE
10 CONTINUE
dado que los elementos de una matriz se guardan en columnas en
memoria y en el primer caso se ejecutan los valores también por
columnas, lo que minimiza la paginación memoria/disco que se produce
en matrices grandes.
b) Evitar definir variables nuevas para los índices de vectores y matrices,
como en el caso
11= 1+1
J1=J+1
X=B(I1,J1)
Es mucho mas eficiente escribir:
X=B(I+1,J+1)

207
Índice
Capítulo 3

que evita el movimiento de valores entre posiciones (II y J 1 son nuevas


posiciones de memoria, en el primer caso).

c) Maximizar todo lo posible el uso de variables en áreas COMMON, dado


que evita el duplicar los datos entre el subprograma llamador y las
subrutinas

d) Agrupar las expresiones recurrentes para que el compilador las pueda


identificar y optimizar. Así por ejemplo, en lugar de escribir

AA=X*A/Y
BB=X*B/Y

es mejor escribir

AA=A*(X/Y)
BB=B*(X/Y)

con lo que el ordenador identificará (X/Y) como una variable de


almacenamiento intermedio cuando optimice el código.

e) Evitar los IF innecesarios, especialmente dentro de las sentencias DO,


dado que esto ahorra operaciones. Así, por ejemplo, es mejor escribir

DO 10 J=1,N
A(J)=X(J)**2+Y(J)**2
10 CONTINUE
IF(IFLAG.EQ.O) THEN
DO 20 J= 1,N
20 A(J)=A(J)+DELT A
ENDIF

que escribir

DO 10 J=1,N
A(J)= X(J)**2+Y(J)**2
IF(IFLAG.EQ.O) A(J)=A(J)+DELTA
10 CONTINUE

208
Índice
Capítulo 3

f) Evitar el uso de acumuladores en posiciones vectoriales, dado su uso


puede dar lugar a un incremento de la paginación de la memoria, cuando
los vectores son largos. Así por ejemplo, las siguientes instrucciones:

C(I,J)=0.0
DO 10 K=1,N
10 C(I,J)=C(I,J)+A(I,K)*B(K,J)

Pueden incrementar la paginación con respecto a las instrucciones

S=0.0
DO 10 K=1,N
10 S=S+A(I,K)*B(K,J)
C(I,J)=S

3.8.2 Introducción a la paralelización de programas

3.8.2.1 Fundamentos de paralelización

En muchos casos, la velocidad de un solo procesador es insuficiente para


permitirnos realizar la tarea propuesta en un tiempo razonable. En este caso, si la
máquina de que disponemos tiene capacidades paralelas (caso de una 0 rigin- 2 0 0 0
o una 0rigin-200 de Silicon Graphics, por ejemplo), es posible convertir el
programa FORTRAN en un programa que sea capaz de ejecutarse en paralelo. Para
ello, es necesario entender las claves del funcionamiento de un ordenador paralelo
y del proceso de paralelización. No todo proceso es paralelizable, y cuando lo es,
no siempre la paralelización da lugar a una mejora apreciable del rendimiento del
proceso.
Cuando un ordenador es paralelo, se puede dividir la ejecución del
programa en bloques que se ejecutan en varios de los procesadores de forma
paralela. A este proceso se le denomina paralelización. Mediante directivas de
paralelización incluidas dentro del programa FORTRAN, le decimos al procesador
en el que empezamos a ejecutar nuestro programa, que ciertos bloques de
instrucciones se ejecuten simultáneamente en varios de los procesadores paralelos
del sistema. Cuando dicho proceso paralelo se acaba, le devuelven el control al
procesador desde el que se ha iniciado el proceso paralelo. Al procesador desde el
que se inicia el proceso paralelo se le denomina el procesador dueño, mientras que
los procesadores en los que se distribuye el proceso paralelo son los procesadores
esclavos.
La paralelización óptima se alcanza cuando la cantidad de proceso a
realizar en cada procesador esclavo es semejante, con lo cual todos ellos terminan

209
Índice
Capítulo 3

sus tareas en un tiempo similar. Debido a ello, hay pocos tiempos muertos en cada
uno de los procesadores esclavos. En este caso, se dice que el proceso paralelo está
bien balanceado. Puede suceder, sin embargo, que la carga de uno o varios de los
procesadores sea muy baja frente a la de los demás, con lo que los primeros
permanecen parados mientras que esperan que el mas lento acabe. En este caso, el
proceso paralelo está mal balanceado y el rendimiento de la paralelización será
bajo, tanto mas bajo cuanto mayor sea el tiempo de espera. Esto se ilustra
gráficamente en la Figura 3.3:

PARALELO PARALELO
SECUENCIAL BIÉN BALANCEADO M AL BALANCEADO

Figura 3.3. C om paración entre el tiempo em pleado en ejecutar un proceso (ordenadas, en


unidades arbitrarias) cuando el proceso se ejecuta en un solo procesador (proceso
secuencial, gráfica de la izquierda) o cuando se ejecuta en paralelo usando 4 procesadores
(gráfica central y de la derecha). Se han distinguido en el caso paralelo dos casos: cuando
la cantidad de instrucciones a ejecutar en cada procesador es sim ilar (central), o cuando
hay un procesador que ha de ejecutar m uchas m as instrucciones (derecha). En el prim er
caso, el proceso de dice que esta bien balanceado, m ientras que en el segundo, el proceso
de dice m al balanceado.

Obviamente, cuanto mejor balanceado esté el proceso, mas rendimiento


alcanzaremos en la paralelización del mismo. Lamentablemente, no hay recetas
mágicas para alcanzar un grado óptimo de paralelización en un programa. Cada
problema es diferente y se ha de estudiar para definir su paralelización. Al mismo
tiempo, la paralelización puede variar entre diferentes máquinas.
A fin de entender la paralelización, podemos ver un ejemplo de la misma.
Supongamos que queremos ejecutar el siguiente bloque de instrucciones:

DO 100 1=1,10000
A(I)=B(I)+C(I)
100 CONTINUE

210
Índice
Capitulo 3

Estas instrucciones se pueden ejecutar en paralelo en 4 procesadores de forma


simultánea, mediante las siguientes instrucciones (en las que se indica el
procesador donde se ejecutan):
Procesador 1: DO 100 1=1,2500
A(I)=B(I)+C(I)
100 CONTINUE

Procesador 2: DO 100 1=2501,5000


Á(I)=B(I)+C(I)
100 CONTINUE

Procesador 3: DO 100 1= 5001,7500


A(I)=B(I)+C(I)
100 CONTINUE

Procesador 4: DO 100 1=7501,10000


A(I)=B(I)+C(I)
100 CONTINUE

El proceso es paralelizable porque los valores de A(I) que se calculan en un


procesador no dependen de los que se han calculado en los otros procesadores
(condición necesaria para que el proceso sea paralelizable).
El grado de paralelización alcanzado en un programa se mide por la
denominada aceleración (también llamada a veces speed-up) que nos mide la
relación entre el tiempo tardado por el proceso secuencial (es decir, el ejecutado en
un solo procesador) y el paralelo:
T( secuencial) .
aceleración = ------------------< num.procesadores
T {paralelo)
La aceleración es siempre menor que el número de procesadores empleados en el
proceso paralelo, dado que siempre hay un costo en mover la información entre
procesadores y en el control de sincronización (costo llamado, a veces, overhead).
Estudios empíricos realizados con máquinas paralelas han permitido
establecer que se cumple la denominada Ley de Ahmdahl:
Cuando un programa tiene dos modos de operación, el rendimiento global
está dominado por la fracción procesada por el modo mas lento, a no ser que
el porcentaje del modo mas lento prácticamente se elimine.
Cuando dicha ley se aplica a procesos en los que hay partes secuenciales y
paralelas, como sucede en la mayoría de los programas, la Ley de Ahmdahl se
traduce en la siguiente ecuación

211
Índice
Capítulo 3

aceleración = ------------- j
(1 + /) + Z
P
en la que f es la fracción de código paralelo y p es el número de procesadores
empleados en el proceso paralelo. Si f=0.75 (es decir, el código está paralelizado en
un 75%) y p=4, la aceleración que se alcanza es 2.28, es decir, casi la mitad de los
4 procesadores están parados durante la ejecución en cuatro procesadores de un
proceso con una paralelización del 75%. La ecuación anterior también nos dice que
la aceleración será muy pequeña con códigos poco paralelos, y que la eficiencia
disminuye a medida que aumentamos el número de procesadores.
En la actualidad existen dos tipos de ordenadores paralelos: los de memoria
distribuida, y los de memoria compartida. En el primer caso, la memoria de cada
procesador sólo puede ser usada por dicho procesador, mientras que en el segundo
caso, la memoria es utilizable simultáneamente por todos los procesadores. Una
arquitectura de memoria compartida es mejor que la de memoria distribuida, dado
que en el primer caso la información no se debe enviar entre nodos para su
ejecución, y cuando un procesador deja libre la memoria los otros la pueden usar.
Ejemplos de ordenadores paralelos con memoria compartida son los 0rigin-200 y
0rigin-2000 de Silicon Graphics, mientras que los Cray T3E y Cray T3D son
ejemplos de ordenadores paralelos con memoria distribuida.

3.8 .2.2 Paralelización en los ordenadores 0rigin-2000

Dado que esta es la máquina que se disponía para realizar prácticas en la


Escuela de Castellón, se ha elegido estudiar el paralelismo en dicha máquina.
Dentro de una 0rigin-2000 es posible realizar el proceso de paralelismo de
forma automática, o de forma manual. La paralelización automática se puede
activar con sólo activar la opción de autoparalelización en el compilador
FORTRAN-77, lo que se puede hacer mediante la instrucción
f77 -apo -keep -flist programa./
siendo la opción de autoparalelización la -apo (acrónimo de autoparalelizing
option). Con las demás opciones pedimos que nos de un listado del código
paralelizado, para poder ver cómo ha paralelizado el compilador. El programa a
compilar en paralelo lleva por nombre genérico programa.f (el usuario puede elegir
el que quiéra, acabado por .f). La paralelización automática da buenos resultados si
el código está bien estructurado. Se centra en paralelizar los bucles DO que
aparecen en el código, dado que son las partes del programa que mayor grado de
paralelización pueden alcanzar. El código paralelizado aparece en un fichero de
nombre programa.list, donde se describe en detalle la paralelización realizada y las

212
Índice
Capítulo 3

directivas empleadas. Analizando este fichero es una buena forma de aprender a


hacer paralelización manual.
En relación con la paralelización manual, se lleva a cabo mediante
comandos de paralelización insertados en el código FORTRAN, todos los cuales se
reconocen porque en la columna 1 y 2 llevan escritos, sucesivamente, las letras C$.
Un ejemplo es la instrucción paralela:,
C$COPYIN
que es una instrucción paralela reconocida por el compilador paralelo, aunque que
se trata como un comentario por el compilador no-paralelo, el usual, al que
podemos denominar secuencial. Para activar el compilador paralelo se emplea la
siguiente instrucción:
f77 -mp programa./
El paralelismo manual también está orientado hacia paralelizar los bucles
DO, lo que puede hacerse mediante instrucciones

C$DOACROSS [lista de parámetros]

Además de esta instrucción existen otras instrucciones que nos permiten controlar
el tipo de ejecución paralela (C$MP_SCHEDTYPE) el tamaño del bloque paralelo
(C$CHUNK) o copiar valores almacenados entre COMMON paralelos
(C$COPYIN). Cada instrucción C$DOACROSS se aplica a un único bucle DO.
La forma con que se lleva a cabo la paralelización es la siguiente: el
compilador genera una subrutina paralela cada vez que se encuentra un
C$DOACROSS. Dicha subrutina se ejecuta en tantos procesadores como
especifiquemos (sino se toma la opción por defecto), y cuando se acaba el DO se
termina la subrutina paralela, devolviendo el control al programa llamador, que se
ejecutaba en el procesador dueño. El usuario debe de preocuparse, para el buen
funcionamiento de la subrutina paralela, de pasar los valores de las variables
necesarios para la ejecución de dicha subrutina. Así, si se quiere paralelizar un
bloque DO como el que sigue:

DO 10 1=1,N
X=SQRT(A(F)
B(I)=X*C(I)+X*(D(I)
10 CONTINUE

para su correcta ejecución como subrutina, hemos de entrar los valores N, A, C y


D, mientras que el resultado quedará en el vector B. Las variables I y X son
internas al bucle DO. Por lo tanto, hemos de especificar en la llamada paralela que
A,B,C,D, y N son variables a compartir entre el procesador dueño y los esclavos,

213

Índice
Capítulo 3

mientras que I y X son variables locales dentro de cada procesador esclavo. Estas
indicaciones se hacen mediante el siguiente código FORTRAN paralelo:

C$DOACROSS LOCAL(I,X), SHARE(A,B,C,D,N)


DO 10 1=1,N
X=SQRT(A(F)
B(I)=X*C(I)+X*(D(I)
10 CONTINUE

Cómo se ve, basta una instrucción para paralelizar dicho bucle DO. Siguiendo un
procedimiento analítico semejante, es posible repetir el proceso de paralelización
con tantos DO como se quiera.. La única restricción para paralelizar un bucle DO,
como ya se ha indicado antes, es que los valores que se calculan en un procesador
deben de ser independientes de los calculados en los otros procesadores. De otra
forma, el proceso no es paralelizable. Como consecuencia de esta restricción, no es
posible paralelizar bucles DO anidados (por ejemplo, dobles DO que corren sobre
las filas y columnas de una matriz). En este caso concreto, se opta por paralelizar el
bucle DO mas externo, dado que es el que realiza mas trabajo.
Es importante indicar aquí que no es rentable paralelizar bucles DO con
longitud menor a 100. Este hecho es debido a que por debajo de dichos valores no
se compensa la ganancia de velocidad provocada por la paralelización con el
overhead necesario para llevarla a cabo. Para evitar la paralelización de bucles
menores a 100 pueden emplearse controles. Así, para el ejemplo de paralelización
desarrollado anteriormente, puede controlarse mediante la siguiente instrucción

C$DOACROSS IF(I.GT. 100) LOCAL(I,X), SHARE(A,B,C,D,N)


DO 10 1=1,N
X=SQRT(A(F)
B(I)=X*C(I)+X*(D(I)
10 CONTINUE

Los ejemplos aquí presentados pretenden dar sólo una idea de los fundamentos de
la paralelización, y de que la paralelización manual es sencilla y aplicable a
cualquier programa, tras un análisis de su estructura. Estas líneas no pretenden
describir todas las opciones de paralelización, como, por ejemplo, las que controlan
el número de procesadores asignados al cálculo paralelo. Para ello, se recomienda
al estudiante interesado leerse el manual de paralelización del ordenador paralelo
en el que se quiera trabajar.

214

Índice
Capítulo 3

BIBLIO G R A FÍA

AUF DER HEYDE, T. P. E. (1990; J. Chem. Educ., 67,461.

CALVO MANZANO, J. A., FERNÁNDEZ SANZ, L. (1995) Ingeniería del


software: diseño estructurado, Universidad Politécnica de Madrid, Madrid.

ETTER, D. M. (1997) Structured FORTRAN-77 fo r Engineers and Scientists,


Addison Wesley Longman, 5a edición, Menlo Park.

FLETCHER, R. y POWELL, M.J.D. (1963): Comput. J., 6 , 163.

JENSEN, F. (1999): Introduction to Computational Chemistry, New York, Wiley.

KIRKPATRICK, S. y otros (1983): Science, 220, 671.

MacGOWAN, C.L., KELLY, J. R. (1976) Top-down Structures Programming


Techniques, Petrochelli/Charter, New York

METROPOLIS, N. y otros (1953): J. Chem. Phys., 21, 1087.

PRESS, W.H. y otros (1992): Numerical recipes in FORTRAN, Cambridge,


Cambridge University Press.

SCHLEGEL, H.B. (1987): Optimization o f equilibrium geometries and transition


structures en LAWLEY, K.P. (ed.) (1987): Ab initio methods in Quantum
Chemistry, New York, Wiley.

SCHLEGEL, H.B. (1995): Geometry optimization on potential energy surfaces en


YARKONY, D.R. (ed.) (1995): Modern electronic structure theory, Londres,
World Scientific Publishing Co.

215
Índice
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
4. Química cuántica en materia condensada:
aplicación al estudio de superficies,
quimisorción, catálisis heterogénea y
propiedades de sólidos
F r a n c e s c I l la s1 y J o s e p M a n e l R i c a r t 2

(1)Departament de Química Física i Centre de Recerca en Química Teórica,


Universität de Barcelona, C/Martí i Franqués 1, E-08028 Barcelona

(2) Departament de Química Física i Inorgánica i Institut d'Estudis Avanqats,


Universität Rovira i Virgili, PL Imperial Tárraco 1, E-43005 Tarragona

4.1 Introducción

La década de los noventa ha contribuido de modo decisivo al desarrollo de


métodos computacionales basado en la Química Cuántica que permiten predecir de
manera cuantitativa la estructura y propiedades de moléculas de tamaño medio,
-50 átomos, en su estado electrónico fundamental (Bagus, 1998). A este desarrollo
han contribuido, sin lugar a dudas, factores externos a la propia Química Cuántica
como son la aparición de ordenadores cada vez más potentes y, a su vez, de menor
coste y mayores prestaciones en espacio de disco y de memoria. Este aumento casi
exponencial de la capacidad de cálculo no debe enmascarar los éxitos conseguidos
gracias a la investigación que se ha dirigido tanto a mejorar la metodología de la
Química Cuántica existente como a generar nuevos y mejores métodos de cálculo
en varias direcciones. La aparición de métodos directos para la obtención de
funciones de onda de tipo Hartree-Fock o para llevar a cabo cálculos de interacción
de configuraciones, ha permitido sobrepasar las barreras computacionales
impuestas por la necesidad de almacenar una gran cantidad de información en
disco. La introducción de gradientes analíticos de la energía respecto a las
coordenadas nucleares para una amplia variedad de métodos de cálculo ha abierto
las puertas al estudio sistemático de superficies de potencial y, por tanto, a la
descripción cada vez más detallada de los mecanismos de reacción. Finalmente, la
introducción de técnicas basadas en la teoría del funcional de la densidad,
especialmente después de reconocer la necesidad de sobrepasar la denominada
aproximación local e introducir funcionales que de un modo u otro utilizan el
gradiente de la densidad o incluso la laplaciana de la densidad, ha dotado al campo
de la química cuántica computacional de un instrumento eficaz, capaz de tratar de
modo casi rutinario sistemas moleculares cuyo tamaño trasciende el interés
puramente académico e incide de lleno en la práctica habitual de la investigación
en química. El desarrollo de métodos de escalado lineal permitirá, en un futuro no
muy lejano, desplazar la frontera de los sistemas susceptibles de ser estudiados

217 Índice
Capítulo 4

mediante técnicas computacionales de precisión química. No es atrevido vaticinar


que el estudio químico-cuántico de sistemas de interés bioquímico será uno de los
objetivos científicos actuales que serán alcanzados.
La discusión anterior puede parecer triunfalista en exceso y dar la sensación de
que la química cuántica actual permite estudiar, con precisión suficiente, cualquier
sistema de interés químico; nada más lejos de la realidad. Si bien los avances
recientes permiten racionalizar la complejidad casi inimaginable de la química, el
momento en que los métodos de la química cuántica puedan ser aplicados de modo
automático a cualquier sistema se encuentra todavía lejos. En efecto, el estudio de
las propiedades de moléculas adsorbidas en superficies de diversos materiales así
como la reactividad química de las mismas en fase adsorbida constituyen sendos
ejemplos de sistemas cuya complejidad trasciende las posibilidades de la química
cuántica actual. Esta complejidad aumenta enormemente si estas reacciones se dan
en un entorno electroquímico puesto que a la complicación debida a un substrato
extendido cuya descripción requeriría tratar explícitamente con cientos, sino miles,
de átomos, se une la dificultad derivada de la existencia de un disolvente y de las
correspondientes especies en disolución y la existencia de un potencial externo.
Dificultades similares se encuentran cuando uno pretende abordar el estudio de una
reacción tan simple como la síntesis de metanol a partir de C 0 2 y H20 usando un
catalizador de cobre soportado en óxido de zinc. Los ejemplos mencionados son
representativos de una gran variedad de problemas que abarcan la estructura de
superficies de materiales diversos, la interacción de dichas superficies con
diferentes adsorbatos y la reactividad de las mismas en un proceso típico de
catálisis heterogénea sin olvidar un gran número de procesos, que siendo propios
de la física de estado sólido, tienen interés en diversos ámbitos de la química, sea
por sus aplicaciones potenciales en hipotéticas reacciones químicas como por las
consecuencias que se derivan de su estructura electrónica. Un ejemplo de gran
importancia tecnológica se encuentra en el estudio de defectos y vacantes en óxidos
metálicos puesto que se cree que la nucleación de partículas metálicas sobre
soportes comienza precisamente en estos centros defectivos. El conocimiento de la
estructura y reactividad de estas partículas soportadas es imprescindible para
avanzar en el estudio de la catálisis soportada.
El denominador común de los sistemas descritos en el apartado anterior radica
en su desmedida complejidad. Ninguno de los sistemas descritos anteriormente
puede ser tratado como un todo mediante métodos de la Química Cuántica.
Probablemente, el estudio de este tipo de sistemas no sea posible ni tan sólo
mediante las simplificaciones que se introducen en los denominados métodos
semiempíricos. Llegados a este punto queda claro que el estudio de la estructura
electrónica de estos sistemas y de las propiedades que de ella se derivan sólo puede
ser abordado mediante la utilización de modelos que representen de manera más o
menos adecuada el sistema real. El empleo de modelos introduce necesariamente
limitaciones en la descripción químico-cuántica del sistema y por ello debe
evitarse, en la medida de lo posible, introducir nuevas limitaciones en el modelo
derivadas de la utilización de métodos poco fiables. En las páginas que siguen se
detallarán las ideas esenciales de los modelos ab initio de sistemas complejos. La

218 Índice
Capítulo 4

denominación "modelos ab initio" pretende poner de manifiesto que el sistema


objeto de estudio es un modelo o representación simplificada de la realidad pero
que el tratamiento químico-cuántico del modelo se lleva a cabo empleando
métodos ab initio que permiten cuando menos controlar la calidad de la descripción
de la estructura electrónica y mejorarla de modo sistemático si ello fuese necesario.

4.2 La construcción de m odelos

En el marco de lo que podrían denominarse sistemas en fase condensada hay


que distinguir claramente aquellos en los que existe un cierto orden a largo alcance
de aquellos en los que dicho orden no existe. En el primer caso se encuentran los
diferentes tipos de sólidos y sus superficies más o menos regulares mientras que los
sólidos amorfos y los sistemas en fase líquida son representativos de la segunda
categoría. La existencia de orden a largo alcance en superficies y sólidos conlleva
una cierta rigidez estructural que se pone de manifiesto experimentalmente a partir
de técnicas de difracción. Es bien conocido que las ordenaciones regulares de los
átomos o iones que constituyen una red cristalina son los responsables de la
aparición de patrones característicos en difracción de rayos X. Patrones similares se
observan en experimentos de difracción de electrones de baja energía, LEED, que
resultan también de la ordenación regular de la red cristalina pero
fundamentalmente de su superficie ya que al tratarse de electrones de baja energía
tienen poco poder de penetración y, por lo tanto, la interacción implica sólo
algunas capas de átomos de la superficie. En conclusión, la existencia de orden a
largo alcance implica una rigidez estructural. Sin embargo, lo contrario no es cierto
puesto que los sistemas amorfos presentan rigidez estructural pero carecen de
orden a largo alcance. Por otra parte, es claro que existen sistemas en fase
condensada que no exhiben orden a largo alcance y además carecen de dicha
rigidez. Estas son algunas de las características fundamentales de los líquidos y la
razón por la que su estudio a partir de los métodos de la química cuántica resulta
mucho más complicado y requieren el desarrollo de técnicas teóricas y
computacionales específicas. El presente capítulo se ocupará de superficies y
sólidos recordando que una introducción al estudio de líquidos puede ser
encontrada en el capítulo dedicado a modelización.
La rigidez de la red cristalina de los sólidos y de sus superficies facilita
enormemente la construcción de modelos. Una elección inmediata consiste en
reducir el sólido a un pequeño número de átomos que representen de modo más o
menos adecuado la región del sólido que uno pretenda estudiar. Esta es la base de
los modelos finitos, también denominados modelos de cluster, de los que nos
ocuparemos ampliamente en el presente capítulo. Los modelos finitos sólo
explotan la rigidez del sólido y no su orden a largo alcance. Ello permite aplicarlos
tanto a sólidos y superficies regulares como a sistemas amorfos. La existencia de
orden a largo alcance conlleva una determinada simetría traslacional de la que es
posible sacar partido para simplificar la resolución de las ecuaciones seculares que
definen el problema electrónico de manera análoga a la utilizada en cálculos
moleculares. La utilización de la simetría traslacional, o periodicidad, da lugar a los

219 Índice
Capítulo 4

métodos periódicos usados comúnmente en física de estado sólido y que se


denominan genéricamente como teoría de bandas de los sólidos. A continuación se
describirán las ideas esenciales utilizadas en la construcción de modelos finitos y
en la utilización de métodos periódicos. En el primer caso el énfasis corresponde
más a la construcción del propio modelo y a las técnicas utilizadas para minimizar
los efectos que derivan del tamaño finito del mismo mientras que en el segundo
caso será inevitable dedicar un mínimo espacio al desarrollo del formalismo y de
las distintas implementaciones prácticas.
4.2.1 Modelos finitos

La representación de un sólido tridimensional o de sus superficies mediante un


modelo finito consiste simplemente en aislar una serie de átomos del cristal o
sistema amorfo de interés ignorando, en principio, el resto del sistema. Esta
elección conlleva ventajas e inconvenientes de distinta índole. Una ventaja
indiscutible de los modelos finitos frente a otras opciones más propias de la física
del estado sólido es la de permitir la utilización de cualquier método de la química
cuántica, métodos basados en la función de onda o en la teoría del funcional de la
densidad de modo indistinto. En consecuencia, es posible estudiar tanto el estado
fundamental como estados electrónicos excitados con la única restricción de que el
carácter físico de estos estados debe ser esencialmente local. La espectroscopia de
niveles de core en todo tipo de materiales incluyendo adsorbatos en superficies, las
transiciones ópticas de tipo d-d y las interacciones magnéticas en sólidos iónicos
que contienen metales de transición y el estudio de las transiciones electrónicas
debidas a defectos en sólidos iónicos y covalentes constituyen ejemplos en los que
los estados electrónicos implicados tienen carácter local. El mayor inconveniente
de los modelos finitos reside precisamente en su carácter finito y en los posibles
efectos indeseables que se deriven de los efectos de borde.
Para un modelo suficientemente grande, prescindir de una parte del cristal no
representa ninguna limitación. Sin embargo, la imposibilidad práctica de tratar
explícitamente un sistema que contenga un número elevado de átomos restringe, en
la práctica, el tamaño del modelo a unas pocas decenas de átomos. En
consecuencia, la máxima dificultad que aparece en la construcción de modelos
finitos es la de minimizar los efectos debidos a los bordes del modelo para evitar
que estos puedan interferir en las conclusiones que se deriven de la utilización del
mismo. Aumentar el tamaño del modelo hasta el límite impuesto por la capacidad
computacional del momento permite estudiar la convergencia de los resultados
respecto al tamaño del modelo y decidir si las conclusiones que se derivan de la
utilización del modelo son significativas o si, por el contrario, esta aproximación de
modelo no es conveniente en el sistema de interés.
La limitación práctica del tamaño del modelo ha llevado a desarrollar una serie
de técnicas denominadas de embedding que pretenden idealmente inyectar en el
modelo finito el efecto del resto del cristal (Pisani, 1996). En la práctica ello no
siempre es posible y una técnica que permita minimizar los efectos de borde se
considera satisfactoria. Dependiendo del tipo de material que se pretenda estudiar
existen diferentes estrategias y diferentes problemas a resolver. A continuación se

220 Índice
Capítulo 4

describe la estrategia seguida usualmente en la construcción de modelos finitos de


materiales diversos.

4.2. 1 . 1 Cristales iónicos

En el caso de sistemas altamente iónicos como MgO resulta obvio que reducir
el cristal a un número pequeño de cationes y aniones puede comportar problemas
importantes debidos al potencial electrostático de largo alcance o de Madelung. Sin
embargo introducir los efectos que se derivan del potencial de Madelung en un
modelo finito para un cristal iónico es terriblemente simple, y a que basta rodear el
modelo de una red de cargas puntuales que representen de manera adecuada el
potencial de Madelung. La red de cargas puntuales se construye utilizando
directamente la geometría experimental del cristal y cargas formales u optimizadas
al efecto. En el primer caso es conveniente utilizar el esquema de cargas
fraccionarias de Evjen para asegurar la convergencia del potencial de Madelung
con un número razonablemente pequeño de cargas puntuales. La inclusión de la red
de cargas puntuales permite tener en cuenta el potencial de Madelung pero puede
añadir efectos indeseables si no se procede con cautela. Es posible que algunos de
los aniones del modelo estén directamente rodeados por una o más cargas
puntuales positivas. En ese caso la densidad electrónica de los aniones se polariza
artificialmente hacia las cargas puntuales pudiendo distorsionar notablemente la
respuesta del modelo. Una solución fácil a este problema consiste en introducir
potenciales iónicos totales, TIP, entre el modelo finito y la red de cargas. En la
práctica una buena representación de los TIP se consigue usando pseudopotenciales
para los átomos que se quiera representar como TIP pero omitiendo los electrones
de los mismos y manteniendo su carga nuclear. Una mejor aproximación se
consigue utilizando los denominados potenciales modelo ab initio o AIMP.
• * * ♦ * ;
* ^ íÍ' * \ * *

o * *■ * *, * I f f Üfe v ^

*
** |W >.

, v 6 * * ; i ^ * '
:§&* TSSfflSBggBff L
w * * * ’ . *
* ~ * A *
m

Figura 4.1. Esquema de la generación de un modelo finito de NiO. El


modelo propiamente dicho se encuentra en la parte izquierda, el modelo
rodeado de potenciales iónicos totales en el centro y modelo final incluyendo
la red de cargas puntuales se muestra en la derecha de la figura.

Antes de concluir la discusión sobre la construcción de modelos finitos de


cristales iónicos es conveniente decir que este tipo de modelos pueden ser
utilizados en una gran variedad de problemas. Entre otros muchos cabe citar el
estudio de superficies y de la reactividad de las mismas frente a diversos
adsorbatos y la descripción de la estructura electrónica de defectos puntuales tanto

221 Índice
Capítulo 4

del sólido como de la superficie. En algunos casos, como en el estudio del


acoplamiento magnético en sólidos iónicos, la geometría del modelo puede ser
fijada a la geometría experimental mientras que en otros casos, como el estudio de
los denominados centros de color en la superficie de MgO, que implican
transiciones entre estados electrónicos de electrones atrapados en vacantes de
oxígeno en una red de MgO, se requiere un proceso de optimización de geometría.

4.2.1.2 Cristales covalentes

La característica común de los cristales covalentes es la existencia de enlaces


químicos muy direccionales. Por consiguiente cualquier modelo finito dejará
valencias insaturadas en los bordes del mismo. La existencia de estas
insaturaciones puede ser evitada de modo relativamente simple terminando el
modelo con átomos de hidrógeno. La terminación con átomos de hidrógeno resulta
conveniente pero merece algunas consideraciones adicionales.

Figura 4.2. Representación de un cristal de sílice (izquierda) y del centro


activo tricoordinado abierto de una superficie S i( lll) (derecha) mediante
modelos finitos terminados con átomos de hidrógeno.

En primer lugar debe decidirse la distancia a la cual se coloca el H terminador.


En el caso de una superficie de Si existen dos alternativas obvias; usar la distancia
Si—Si del cristal o la distancia Si— H en un compuesto molecular como el Si2H6.
La segunda opción es más recomendable ya que evita problemas derivados de
enlaces Si—H fuertemente tensionados. Un segundo punto concierne al conjunto
de funciones de base empleados para describir estos átomos saturadores. Algunos
autores han sugerido modificar la base de estos átomos para que así muestren una
electronegatividad parecida al Si evitando una acumulación o perdida excesiva de
densidad electrónica en los bordes del modelo. Sin embargo, la manipulación de la
base atómica de estos H resulta en un aumento de energía y en una peor
descripción del sistema desde el punto de vista variacional. Por consiguiente, es
mucho más aconsejable utilizar bases standard y evitar introducir efectos que
pueden estar fuera de control creando más dificultades que beneficios.
Dependiendo del tipo de sistema a representar puede ser conveniente utilizar la
geometría experimental o, por el contrario, optimizar la geometría del modelo. En
el caso de que el sistema de interés sea una superficie regular de la que exista

222 Índice
Capítulo 4

información sobre su estructura no es recomendable proceder a optimizar la


geometría del modelo mientras ocurre lo contrario cuando el sistema de interés
involucra defectos puntuales. En este último caso es claro que la geometría
alrededor del defecto puntual puede ser muy diferente de la del cristal puro. Sin
embargo una optimización completa de la geometría del modelo puede dar lugar a
una estructura completamente distinta de la que el sistema tiene en la realidad. Una
situación de compromiso entre ambas posibilidades consiste en fijar las posiciones
de los átomos de hidrógeno que terminan el modelo y optimizar el resto de
variables geométricas. De este modo se consigue relajar la estructura pero con la
restricción de que permanezca, de alguna manera, anclada a lo que seria el resto del
cristal considerado fijo.
Una alternativa para la construcción de modelos en sólidos covalentes consiste
en utilizar técnicas de tipo híbrido en las que una parte del modelo, región local, se
describe mediante un método de tipo ab initio y el resto del modelo, parte externa,
se trata de modo más aproximado mediante un método semiempírico o incluso de
mecánica molecular. Si bien esta alternativa parece muy atractiva hay que añadir
que ha sido poco explorada, fundamentalmente debido a su reciente
implementación en el programa Gaussian98 bajo el nombre genérico de métodos
ONIOM.

4.2.1.3 Metales

Los metales constituyen sin lugar a duda el paradigma de sistema en el cual la


utilización de modelo finito es menos aconsejable. La razón de tal aseveración
procede del carácter altamente deslocalizado de la estructura electrónica de los
metales. En primera aproximación, la estructura electrónica de los metales puede
ser descrita mediante un modelo de electrones libres en un potencial periódico y
por ello parece razonable dudar de la capacidad de los modelos finitos en la
descripción de metales. Si bien muchas propiedades de los sólidos metálicos están
dominadas por este carácter extendido de su densidad electrónica, existen
propiedades y fenómenos que, incluso en estos sistemas, tienen un marcado
carácter local y pueden ser estudiados mediante modelos finitos. En efecto, las
propiedades de átomos o moléculas adsorbidas en superficies metálicas son un
claro ejemplo de fenómeno local. En particular, el desplazamiento de las
frecuencias de vibración de moléculas adsorbidas respecto al valor de las mismas
en fase gas, el desplazamiento de los niveles de core de los átomos del adsorbato e
incluso de los del substrato y la estructura molecular de especies adsorbidas son
ejemplos de propiedades que pueden ser estudiadas mediante modelos finitos. A
estos ejemplos cabe añadir el de la reactividad de especies adsorbidas en
superficies metálicas, proceso de gran importancia en el estudio de la catálisis
heterogénea, y que difícilmente puede ser abordado por otro tipo de técnicas o
requieren un altísimo coste computacional.
La representación de un metal, sea sólido, sea superficie, por medio de un
modelo finito implica, como en los casos discutidos en las secciones anteriores,
substituir el bloque metálico por un número reducido de átomos del mismo. Como

223 Índice
Capítulo 4

en los casos discutidos previamente, los átomos en el borde del modelo no son
equivalentes a los del resto del modelo lo cual puede ocasionar artefactos en la
descripción de propiedades. Sin embargo, a diferencia de sólidos iónicos y
covalentes, no existe un modo sencillo de tener en cuenta el resto del cristal si bien
lian sido propuestos en la literatura diferentes métodos de embedding (Whitten,
1996). En ocasiones, es posible ampliar el modelo siguiendo una estrategia similar
a la descrita en la sección anterior para sólidos covalentes y que consiste en dividir
el modelo, usualmente de superficie, en una parte local y una parte externa que se
tratan a un distinto nivel. Así, los átomos de la región local pueden ser descritos
mediante una base más extensa e incluir todos los electrones de cada uno de estos
átomos o utilizar una descripción mediante un pseudopotencial que describa un
buen número de electrones en forma explícita. En este caso los átomos de la región
externa se describen mediante una base más restringida y con un pseudopotencial
que incluya el mayor número de electrones en el core. En el caso límite se utilizan
pseudopotenciales que convierten a átomos tipo Cu, Ag, Au, Ni y Pt en
pseudoátomos con un sólo electrón. La idea central es incluir de manera
aproximada el efecto de la banda de conducción del metal en la estructura
electrónica del modelo.

Figura 4.3 Representación de las superficies Pt(100) y P t( lll)


mediante modelos finitos P t ^ l ó ^ ^ l ) y Pt25(12,6,7). Entre paréntesis
se indica el número de átomos en cada capa.

En la figura 4.3 se representan modelos de las superficies Pt(100) y P t( lll) que


intentan describir distintos centros activos. En el caso del modelo Pt30 la región
local consiste en los cuatro átomos más internos de la primera capa que pretenden
describir un sitio activo tetracoordinado mientras en el modelo Pt^ la región local
está constituida por un solo átomo que pretende describir 1 %posible interacción de
un adsorbato directamente sobre un centro atómico de la superficie.
Existen muchas y variadas alternativas a la aproximación descrita anteriormente
y que pretenden inyectar información de la región externa del modelo en la región
interna. La mayoría de estos métodos provienen del campo de la física de estado
sólido y utilizan la teoría del funcional de la densidad y modelos tipo jellium. Una
descripción bastante exhaustiva de estos modelos puede encontrarse en la
monografía de Zangwill (1988). Dentro de las diferentes técnicas de embedding
cabe destacar la desarrollada por Whitten (1996), probablemente la única que es
compatible con el empleo de métodos ab initio de la química cuántica basados en la
utilización de funciones de onda de interacción de configuraciones.

224 Índice
Capítulo 4

4.2.3 Modelos periódicos

Un sólido, en cuanto que sistema macroscópico, contiene un número infinito de


átomos y su estudio parece imposible a primera vista. Podríamos considerar a un
sólido como una molécula muy grande y despreciar los efectos superficiales.
Hemos visto anteriormente como se puede utilizar un modelo finito y las técnicas
necesarias para minimizar los efectos de borde. Sin embargo, la existencia de
periodicidad y su explotación como elemento de simetría permite la consideración
de un sólido como tal y estudiar algunas propiedades que no tienen carácter local,
sino que se fundamentan precisamente en la naturaleza del sistema como entidad
macroscópica. En los siguientes apartados se introducirán los conceptos básicos
que permiten abordar modelos infinitos desde el punto de vista de la mecánica
cuántica.

4.2.3 . 1 Conceptos básicos de cristalografía

No se pretende, en este apartado, más que recordar algunos conceptos (Kittel,


1995) que serán necesarios más adelante para el tratamiento cuántico de sistemas
periódicos.
Un sólido cristalino consiste en la repetición ordenada de átomos o grupos de
átomos en tres dimensiones. Las unidades que se repiten son idénticas y se pueden
obtener mediante traslaciones de la celda elemental. Definida esta, se puede
obtener todo el sólido mediante la aplicación de una traslación,
Tn = njüj + n2a2 + n3a3, donde ai son traslaciones elementales.

Figura 4.4. Se muestra una red bidimensional con algunas elecciones


posibles de celdas elementales, 1, 2 son primitivas, mientras que 3 no lo es.

La elección de la celda elemental no es única, escogiéndose, en general la de menor


volumen o bien aquella con unas mejores propiedades de simetría. Otra posible
elección, que utilizaremos asiduamente más adelante es la denominada celda de
Wigner Seitz, obtenida uniendo las mediatrices a los segmentos que unen un punto
de la red con sus vecinos más próximos, como se muestra en la figura 4.5:

225 Índice
Capítulo 4

0 m

Figura 4.5. Celda de Wigner-Seitz en un sistema bidimensional.

Un cristal se define mediante su red de Bravais, que describe la periodicidad


existente en el mismo y la base o motivo, que son los átomos en la celda unidad.
Existen 14 redes de Bravais que se pueden agrupar en 7 sistemas cristalinos.
Considerando las operaciones de simetría puntual del cristal se tienen 32 posibles
grupos o clases cristalográficas. Combinando los 32 grupos puntuales con las 14
redes de Bravais, incluyendo además operaciones de simetría con componentes
traslacionales resulta un total de 230 grupos espaciales.
Se indican las filas de nodos como [uvw] siendo T=uaj+va2+wa3 el vector que
define la fila. Los planos cristalográficos se indican con los índices de Miller: (hkl)
siendo hx+ky+lz=m la ecuación de la familia de planos.

a.

Figura 4.6. El plano en negrita, perteneciente a la familia de planos


representada, intercepta a los ejes cristalográficos (según a.) en las
coordenadas (3a1? 0),(0, 2a2) y cumple la ecuación X/3a{ + Y/2a2=l, haciendo
x=X/a1? y=Y/a2, resulta x/3+ y/2=l, eliminando los denominadores, tenemos
2x + 3y = 6 , siendo precisamente (2,3) los índices de Miller correspondientes
a la familia. El plano 2x+3y=l sería el más próximo al origen y describe a su
familia dentro de la celda unidad.

Un concepto que se utilizará con mucha asiduidad y que conviene tener


presente, puesto que permite entender y interpretar con más facilidad algunos
aspectos relacionados con la estructura periódica, es el de red recíproca. Si

226 Índice
Capítulo 4

T = n1a¡ + n2a2 + n3a3 es un vector de la red directa, la red recíproca viene definida
por
K = rrijbj + m2b2 + m3b3, donde Ui • Bj = 2 jzó¿j . (4.1)
Puede verse que, siendo V = 2 1 - 3 2 X 2 3 el volumen de la celda elemental del
retículo directo, se tiene:
r* 2n t* 2 jt . t* 2iti
b, = ( y ) a 2 x a 3; b 2 = (— )aj x a 3; b 3 = ( - ) a , x a 2(4.2)

La propiedades más importantes que podemos destacar en este momento són las
siguientes:
• El vector (h,k,l) de la red recíproca es perpendicular a la familia de planos
(h,k,l) y su módulo es igual a 2n veces el recíproco de la distancia interplanar
en la familia (h,k,l): |K^kI|=2n(dhJ 1
• V* = (2 k)3V '\ donde V* y V son los volúmenes de la celda elemental del
espacio recíproco y el directo, respectivamente.
• Si las componentes de los vectores T y K , en la red directa y recíproca, son
números enteros, es decir corresponden a puntos reticulares, se demuestra
fácilmente que exp( iK T ) = 1
• Si k y k' difieren en un vector K (de componentes enteras) se cumple:
e x p ( i k ’. T ) = e x p ( i ( k + K ) * T ) = e x p ( i k • T ) (4.3)

La celda elemental de Wigner Seitz de la red recíproca se denomina celda de


Brillouin y se utilizará asiduamente en adelante. En las siguientes figuras se pueden
ver unos ejemplos.

Figura 4.7. Se muestra la red hexagonal del grafito tridimensional, los


vectores a., b. y la celda de Brillouin.
Los puntos F, P, y Q representan puntos especiales de la zona de Brillouin.

En tres dimensiones las zonas de Brillouin son algo más complicadas:

227 Índice
Capítulo 4

Figura 4.8. Zonas de Brillouin para una red cúbica centrada en las
caras(fcc) y para una cúbica centrada en el cuerpo (bcc).

Finalmente, pueden definirse sucesivas zonas de Brillouin, considerando las


mediatrices de las líneas que conectan segundos, terceros, etc. vecinos. Estas zonas
están anidadas, en el sentido de que cada una incluye a la anterior y,
evidentemente, fragmentadas. El volumen de cada de estas zonas es siempre el
mismo y se pueden superponer con la primera mediante traslaciones.

Figura 4.9. Sucesivas zonas de Brillouin (se muestran las cuatro


primeras) para una red recíproca cuadrada. Los puntos corresponden a
los nudos de la red

4.2.3.2 Teorema de Bloch

Este teorema es de gran importancia, puesto que define las funciones de Bloch,
adaptadas a la simetría del cristal (Ver Pisani et al., 1996). El papel de las mismas
es equivalente al de los orbitales adaptados a la simetría en un cálculo molecular.

228 Índice
Capítulo 4

Consideremos un operador de traslación t asociado a un vector de la red de


Bravais T definido como
tF(r) = F(f + T ) (4.4)
El operador T conmuta con el Hamiltoniano,# , del sistema. En efecto, si
consideramos F ( r ) = H ( r ) -i¡j(r ) , donde ?p ( r ) es una función genérica y
que i? tiene la periodicidad del sistema, es decir, H ( r + T ) = H ( r ) , se tiene:
f ñ ( f )cp( r ) = ñ ( r + T )cp( r + T ) = ñ ( f )cp( r +T ) = f i ( r )Tcp( f )
de donde, f i t = T fi .
La conmutación de los operadores hace posible escoger los vectores propios del
uno como los del otro:
Ñi p=Ei p y f i p = k ( T ) i p (4.5)
Los operadores de traslación, a diferencia de los correspondientes a operaciones
de simetría puntual, conmutan. En efecto:
t t ' y ( r ) = txp(r + T')=iij(r + T + T') = t'xp(r + T ) = t t y ( T )
De este modo, el grupo de estos operadores es abeliano. Además, para sus
valores propios se cumple la relación k ( T + T f ) = k ( T )X(Tf) .
Dado que el vector de traslación es Tn = rija) + n2a2 + n3a3 ,donde los
coeficientes son enteros, se tendrá k (T ) = X ( ü j ) ni X(a2 ) n2 X(a3 ) ns. Podemos
escribir X( a} ) = e2mkj. Esta expresión es adecuada puesto que si
ti¡ )(f ) = k (T )ip(r ) y fi¡j(r ) =ip(r +T ) , como la densidad electrónica,
representada por \íp\2 debe mantener la periodicidad, se cumplirá
i 12 i —i 2 i —i
Iijj( r ) I = \ijj(r + T )\ y, en consecuencia |A(T )\ = 1 , con lo cual
X ( f ) = exp\2m(nlk 1 + n2k 2 + n3k3 ) \ Por otra parte, estos resultados son directos
si se utilizan las propiedades de los grupos cíclicos, puesto que cada representación
es monodimensional y los caracteres vienen dados por las raíces de la unidad.
Recordando la definición de la red recíproca llegamos finalmente a
k ( T ) = exp(ikT ) . De este modo, la ecuación (4.4) se puede escribir como
Tcp^ ( f ) = cp* ( r + T ) = exp( ikT )cp^ ( f ) (4.6)
donde se ha incluido el argumento k para indexar la función cp .
Esta expresión constituye el Teorema de Bloch. cpK( ?) se denomina función de
Bloch y está adaptada a la simetría del cristal en el sentido de que es función propia
de susoperadores de traslación. De este modo, las funciones propias del
Hamiltoniano incluirán siempre el índice k . El número de vectores k es infinito,
pero si k ’ = k + K , siendo K un vector de componentes enteras en el espacio
recíproco, como exp(íK T) = 1 , tendremos que exp(ikT ) = exp(ikrT ) y por tanto,
k y k 1son redundantes y será suficiente considerar aquellos vectores

229 Índice
Capítulo 4

pertenecientes a la celda de Brillouin (aunque siguen siendo infinitos).


Para evitar un grupo infinito se introducen las condiciones de periodicidad
de Born-Von Karman. A partir de este momento consideraremos el cristal finito,
con Np N 2 y N3 celdas en cada dimensión. Si se quiere mantener la periodicidad, N.
debería ser muy grande de modo que la perturbación provocada por la superficie
del cristal sea despreciable, pero es mejor asumir que el cristal, finito, es parte de
uno infinito pero delimitado de una manera formal, de modo que una traslación TN
nos devuelve al punto original. Es como si el cristal fuera cíclico. Esta condición se
escribe:
<P*(r + TN ) - <p*( r ) (4.7)
y, por tanto, cpk (r +TN') = exp\iícTN \ ) ^ ( r ) = cp^(f ), de modo que exp\ikfN ]= 1 .
Como i k f N = ^ 2 j z i k j N j , deberá cumplirse
j

kj= ~, con j= l, 2, 3 y n = 0 , 1, 2, 3, ...,N (4.8)


Nj
Los posibles valores significativos de £ (en la zona de Brillouin) ya no son
infinitos, sino que su número és igual al de celdas del cristal. El índice ha pasado
de este modo a ser discreto aunque, naturalmente, el número de celdas que se
consideran debe ser grande para que las condiciones cíclicas tengan sentido.
La función de Bloch puede escribirse en la forma:
cp~k( f ) = exp( i kr ) u(f ) (4-9)
donde u(r ) = exp(-ikr )cpk (r ) es una función periódica, denominada en
ocasiones función de Wannier:
u (r + T ) = e x p [ - i k ( r + T ) } p k ( r + T ) =
= exp( -ik r ) exp( -ik T ) exp( i k f )q)k ( f ) = u(r )
La ecuación (4.9) es muy importante y puede leerse como el paso de una
función que tiene la periodicidad de la red a la correspondiente función de Bloch.
Los orbitales cristalinos (paralelos a los OM’s en un cálculo molecular), son
combinación lineal de funciones de Bloch construidas a partir de funciones,
( f ) , localizadas (orbitales atómicos, por ejemplo) o bien ondas planas:

v l ( ? ) = ^ c % z<t>lBZ(? ) (4.H)
A*
donde los coeficientes se determinan utilizando el principio variacional resolviendo
las ecuaciones:
f j k Bz C kBZ = g h z q £bz E hz (4 .12)
( C hz ) +S h zC hz = / (4.13)
donde se ha supuesto un hamiltoniano de tipo monoelectrónico, e.g. Extended
Hückel, operador de Fock o de Kohn-Sham. Como resultado, obtendremos los
orbitales cristalinos ylas energías monoelectrónicas correspondientes. El problema

230 Índice
Capítulo 4

se resuelve para los distintos valores de k . Como las funciones de Bloch son
representaciones irreducibles del grupo de las traslaciones, los elementos de matriz
correspondientes a k distintos son cero. De este modo hemos conseguido
transformar un problema infinito en N (número de celdas del cristal) problemas de
dimensión M (funciones de base de la celda elemental). Aunque N sea muy grande,
el hecho de que los valores propios de la energía varían con continuidad con k ,
permite que el problema pueda resolverse en un número reducido de puntos
haciendo las interpolaciones necesarias.

4.2.3.3 Modelo del gas de electrones

El modelo más sencillo que puede utilizarse para describir un sistema periódico
simple, como un metal, es el gas de electrones libres o modelo de jellium.
Supongamos que cada electrón del metal se comporta de modo independiente,
sintiendo un campo promedio debido al resto de electrones más los iones positivos
y que estos efectos se cancelan. El resultado es un electrón libre confinado en un
volumen V de dimensiones LxLyLz. Dado que el potencial efectivo es cero, la
ecuación de Schrödinger será:

^ - V 2xp(r) = Ei p(r) (4.14)


2m

la solución es cp(r ) = -JV exp(ik?) con E = ------ . (4.15)


2m
y es inmediato comprobar que cp( f ) es una función de Bloch.
La aplicación de las condiciones de contorno,
cp(x + Lx, y , z ) = cp(x,y + Ly, z) = cp(x,y,z + L z ) = cp(x,y,z)
llevan a la condición:
2 jv
kt = — ni (i = x, y , z; n¿entero) (4.16)
L¿
exp( ikr ) es una onda plana de vector de onda k , k puede interpretarse también
como un número cuántico que, junto al spin del electrón define su estado. Los
estados permitidos pueden representarse en un espacio tridimensional, de ejes kx,
ky, kzconcoordenadas múltiplos de 2n / L¿. Cada k puedeasociarse a un
volumen(2^ :) 5 ¡ V , una región Q contendrá Q /((2Jt) 3 / V ) = Q V / 8 n 3 valores
permitidos de k ,o V / 8k 3 por unidad de volumen (en el espacio recíproco). En el
estado fundamental del sistema, para N electrones , se ocuparán los N/2 estados de
h2k 2
menor energía según E = ------ , esto representa una esfera de radio kF (radio de
2m
Fermi) que contiene n ksF / i)* V / 8 ji 3 = k F
s V / 6 ji 2 estados o k sFV / 3 jt2
electrones. Si n es la densidad electrónica (n=N/V), se tiene k F = (iJt2n j 13.

231
Índice
Capítulo 4

Figura 4.10. Representación esquemática de la


esfera de Fermi en dos dimensiones. La zona
sombreada corresponde a los estados ocupados.

Si representamos la energía en función de k (en una dimensión para simplificar)


se tiene una parábola.:

Figura 4.11. Representación de la


energía en función de k (E~k2) para un
electrón libre confinado. La curva está
formada por puntos discretos, pero si el
volumen, V es muy grande, será
prácticamente continua.
0

Un concepto de mucha utilidad en el análisis de la estructura electrónica de


sistemas periódicos es el de la densidad de estados:
Consideremos el número de electrones N(E) por unidad de volumen hasta una
energía E:
( 2mE ) 312
N(É)- (4.17)
3jz* 3 it2n 3
derivando respecto a la energía, tendremos:

(4.18)
dE K 2n 3

n(E) representa el número de electrones por unidad de volumen con una energía
entre E y E+dE por unidad de variación de energía.
La representación de n(E) en función de la energía es una parábola:

Figura 4.12. Curva de densidad de estados para un gas de electrones libres.

Índice
Capítulo 4

Ef
La integral f n( E )dE = N es el número total de electrones. En realidad, la
o
densidad de estados no es más que el equivalente a un diagrama de niveles de
energía en un sistema molecular y puede ser obtenida experimentalmente mediante
espectroscopia de rayos X.
Si asumimos las condiciones de contorno y por tanto, la periodicidad en k , la
parábola puede centrarse en k = 0 , 2 rc, o bien, teniendo en cuenta las
redundancias, la representación puede efectuarse en la primera zona de Brillouin,
que en este caso corresponde al intervalo [-jc,3i]. Esta es, justamente la
representación más usual de la estructura de bandas. La primera banda corresponde
a la parte de la parábola en la primera zona, la segunda a la de la segunda, etc.

Figura 4.13. La parábola puede representarse de forma que queda patente su


periodicidad situando el origen en los extremos de las zonas (esquema periódico)
o bien dentro de la primera zona de Brillouin (esquema reducido, en trazos
gruesos) trasladando a ella los trozos que quedan fuera de la zona.

Si el potencial en la red deja de considerarse nulo, aunque muy débil, puede


utilizarse el esquema anterior, pero, como se justificará más adelante, aparecen
discontinuidades en k = -jt, j t , ... con lo que la estructura de bandas toma la forma:

Figura 4.14. Estructura de bandas para


un sistema bidimensional con un
potencial de red débil, aparecen
discontinuidades en los límites de la
primera zona de Brillouin. Existen, de
este modo intervalos de energía
prohibida entre las bandas.

Así, en la zona de Brillouin, y para un valor k, existen diversos niveles

233 Índice
Capítulo 4

.discretos, En(k). Para un nivel, n, dado, En(k) es una función de k continua y


diferenciable, denominada banda de energía.
Podemos utilizar el diagrama anterior para estudiar la ocupación electrónica en
un metal. Supongamos cadenas unidimensionales de Na, Mg, Al, con 1, 2 y 3
electrones de valencia por átomo y un átomo por celda . Una banda contiene 2N
estados, correspondientes a N puntos k y por tanto para Na la primera banda estará
semiocupada, para Mg estará completa y para Al la primera banda estará
completamente ocupada y la segunda semiocupada.
De un modo muy simplificado, podríamos considerar la conductividad eléctrica
como un desequilibrio entre el número de electrones con momento negativo y
positivo producido por un campo eléctrico. Este desequilibrio es posible en una
banda que no está llena, pero no en una completamente ocupada. Por tanto, sería de
esperar que Na y Al sean conductores pero no Mg. Esta previsión no es correcta
para Mg. Ello es debido a que hemos considerado un sistema monodimensional.

Figura 4.15. Distribución de electrones en un gas de electrones. Nótense los 4


electrones por nivel (a,|3),(k,-k). A la derecha aplicando un campo eléctrico.

Figura 4.16. a) Primera y segunda zona de Brillouin para un sistema cuadrado


en dos dimensiones. Los círculos que se deforman al acercarse al límite de la
zona corresponden a líneas de energía constante. La línea más gruesa encierra
un área igual a la de la primera zona y contiene dos electrones. Su frontera es
la superficie de Fermi. b) Primera zona de Brillouin incompletamente
ocupada, c) Segunda banda de energía parcialmente ocupada, para
representarla se ha llevado la segunda zona de Brillouin sobre la primera. Las
zonas oscuras corresponden a estados ocupados.

234 Índice
Capítulo 4

Tal y como se muestra en la Figura 4.16, si el sistema es bidimensional, y de celda


elemental cuadrada, para simplificar, la zona de Brillouin será cuadrada y cerca de
los límites de la zona se observarán deformaciones en las líneas isoenergéticas,
apartándose del comportamiento circular del electrón libre
De este modo es posible que la primera banda no esté completamente llena,
presentando agujeros, mientras que la segunda banda contenga electrones, con lo
cual el sistema es un conductor.

Figura 4.17. Representación (esquemática) de


la situación anterior. La primera banda cruza
el nivel de Fermi, con una zona no ocupada.
La segunda banda presenta una zona
ocupada. Se trata de un conductor.

r n h r

4.2.3.4 Método de Hückel aplicado a un polieno cíclico.

Para comprender mejor el formalismo anterior utilizando un sistema “más


químico”, consideraremos a continuación un polieno cíclico plano y resolveremos
el problema utilizando la aproximación de Hückel para el sistema jt. Este método
también se denomina “de enlaces fuertes” o thight binding.

Figura 4.18. Esquema de un polieno cíclico de N átomos.

Los orbitales moleculares se escriben como cpm = ^ cnmX n donde es un orbital


n
atómico pz centrado en el átomo n.

235 Índice
Capítulo 4

El sistema de equaciones seculares tiene la forma:

PCNm + ( a ~ Em)cIm + f c 2m = 0
Pcim + ( a - E m)c2m + pc3m =0
(4.19)

PCN-l,m + ( a - E m )CNm + PcN+l,m = 0

equivalente al determinante secular:

a-E p 0 0 0 P
p a -E p 0 0 0 (4.20)
0 P a -E p
0 0 p ...

... P 0 0
...a-E p 0
0 0 0 p a-E p

P o 0 p P a-E

La teoría general de determinantes lleva, para el anterior, a la solución:

Em = a + 2/3cosdm con cnm = —= exp(in6m ) y n = l,2 ,...,N . Como el polieno


'sJN
es cíclico se cumplirá cnm = cn+Nm, es decir: exp( in6m ) = exp[ i(n + N )6m] . Esto
2mn
implica que exp(iN6m) = l , de donde se deduce que 6m = —— m = 1,2,...,N .
Los orbitales moleculares tendrán la forma:

q>m = \ ~^=exp( 2mmn / N )x„ , y si hacemos ^Jü7l _ ^ con


n-l ''JN N
2ji 4 jz 6 jz -(N -2)n 2x
k=0,— , — ,— ,.. . , 2 j i obien k = - n ,—1 — ,..Jt llegamos a la
N N N N N
forma final:
(4.21)
Cf>k

con

Ek = a + 2/3 eos k (4-22)

Podemos representar los valores de energía obtenidos para polienos de

236 Índice
Capítulo 4

dimensión creciente:

a-2(3

a-|3

a+(3

a+2|3
I
3 4 6 10 12 25 50 100 oo

Figura 4.19. Niveles de energía para diversos polienos cíclicos.

Se observa claramente que la separación entre niveles va disminuyendo,


llegando a formar una banda continua de energía. Como se considera un electrón
por orbital atómico, la banda está semiocupada.
Otra representación instructiva es la de la energía respecto al parámetro k:

a-23 r n m

a /
.....................

q qqqqqíhN—B
I T T I T lin í
*x'/*oi+2j3
-K 0 Jt

Figura 4.20. Representación de la energía en la primera zona de


Brillouin. Se muestran los orbitales cristalinos en k=0 y k=jt.
Derecha: Densidad de estados correspondiente

Finalmente, la-densidad de estados (DOS) muestra que existen más estados por
unidad de energía en los extremos (en energía) de la banda. En el centro, la DOS es
más plana, correspondiente a menos estados y a una zona de la banda de mayor
pendiente. La densidad de estados representa un retorno al espacio directo en el
sentido que es paralela a un diagrama de energía discreta de una molécula
La conclusión de este ejercicio, donde no se han utilizado en absoluto los
conceptos de los apartados anteriores es que obtenemos resultados ya conocidos.

237 Índice
Capítulo 4

En particular la forma de los orbitales moleculares como funciones de Bloch, la


aparición de un parámetro, k, que corresponde a un vector de la red recíproca y
puede representarse en un intervalo (Zona de Brillouin) y la representación de la
energía como banda.

4.2.3.5 Método de Extended Hückel periódico

Si en el apartado anterior hubiéramos utilizado la simetría traslacional y, por


tanto, la expresión de la función de Bloch, la resolución del problema sería mucho
más sencilla. Para hacer el tratamiento más general que antes, supondremos ahora
una base de orbitales atómicos para cada átomo y resolveremos el sistema
periódico en la aproximación Extended H ückel (Ver Burdett, 1987; Canadell,
1991; Hoffmann, 1987). Como primera simplificación se supondrá el sistema
unidimensional, y con un átomo por celda elemental.
Las funciones de Bloch, base adaptada al sistema periódico son:
(4.23)
a

donde a representa la traslación elemental k es un vector en la red recíproca y


( r - a ) indica el orbital /j, en la celda a.
Los orbitales cristalinos, combinación lineal de las funciones de Bloch, se
escriben: (4.24)

La ecuación de Schrödinger será


(4.25)
donde Heff es el Hamiltoniano EH
La aplicación del método variacional y el desarrollo en las funciones de base
conduce al determinante secular:
(4.26)
donde

= { x , ( r ) \ H eff\Xv ( r ) ) + ^ + (4.27)
exp(-ikna ) ( x ß ( r - na) \ H eff \x v ( r ))

y
e x p ( i k n a ( r ) \ xv ( r - na,))
N
5 £v = { x lt( r ) \ x y ( r ) ) + ' ^ i + (4.28)
n=l
exp( -ikna ( r - na ) ¡xv ( r ))

Nótese que el sumatorio se ha separado en tres partes: el término

238 Índice
Capítulo 4

correspondiente a n = 0 (celda origen), la correspondiente a n> 0 y otra con valores


en que n es implícitamente negativo. De este modo se pueden agrupar términos
para eliminar la parte compleja.
Supongamos un solo orbital por átomo. El determinante secular será de
dimensión 1 y la energía tendrá la forma:
(4,29)
S( k) 1 + 2S eos ka + ...
donde a es la integral de Coulomb, /3 la de resonancia y S el solapamiento entre
átomos vecinos. Con la restricción de que /3 es no nula únicamente para primeros
vecinos y asumiendo ortogonalidad en los orbitales atómicos se tiene:
e( k) = a + 2/3 eos ka (4.30)
Este es exactamente el mismo resultado que teníamos al resolver problema para
un polieno cíclico en la aproximación de Hückel, pero sin ser ahora necesaria una
diagonalización complicada.
En la figura siguiente se han representado bandas correspondientes a orbitales
de tipo px(=py), s y pz en la mitad de la zona de Brillouin (en la otra mitad la banda
es simétrica). También se han dibujado los orbitales cristalinos en k=0 y k=2jt/a.

0 n/a
Figura 4.21. Representación de la energía correspondiente a las bandas pz, s y
px=py Para un sistema bidimensional con un átomo por celda en la
aproximación Extended Hückel.
Se han dibujado esquemáticamente los orbitales para k=0 y k=2jt/a. La
dispersión (intervalo de energía) de las bandas (no representada a escala)
depende del parámetro |3, es decir de la interacción entre los orbitales.

239 Índice
Capítulo 4

En este momento se puede comprender bien el significado de la función de


Bloch:

<P„(k ) = ^ / -^=:exP ( ika) Xtl( r - a ) (4.23)

Si el potencial fuera nulo, la función atómica seria una constante, y el orbital de


Bloch una onda plana que describiría el comportamiento de un electrón libre. Si el
parámetro de celda aumenta mucho, los valores de k son prácticamente cero, puesto
que disminuye la dimensión de la celda recíproca y el orbital de Bloch se convierte
en una suma de orbitales atómicos sin interacción, las bandas serian planas y su
energía seria la de los orbitales atómicos correspondientes. Por tanto, la dispersión
está directamente relacionada con la intensidad de la interacción. Podemos ver,
pues que cada orbital atómico genera un orbital cristalino.

V=0 a 00

Figura 4.22. Representación esquemática de los límites de las funciones de


Bloch, a la izquierda potencial cero y electrones libres. A la derecha
parámetro de red infinito y niveles atómicos. En el centro bandas de energía
separadas por zonas de energía prohibida, cada banda corresponde 2N
estados (teniendo en cuenta el spin).

Continuando en la línea anterior, consideraremos seguidamente el caso de dos


átomos por celda elemental.

-a
2
-e - -O - -O

p,

Figura 4.23. Esquema de una red unidimensional con dos átomos por celda.
Se indican dos tipos de integral de resonancia.

240 Índice
Capítulo 4

En este caso, el determinante secular será de dimensión 2:


H n ( k ) - e¡( k ) H I2( k )
= 0 (4.31)
H 21( k ) H 22( k ) - e¡( k )

Los elementos matriciales serán:


H n (k) = (¿¿=1,2)
(4.32)
H 12( k ) = H*21( k ) = p 1 + p 2 exp(-ika)
Para obtener H12 debe tenerse en cuenta que la integral entre el átomo 1 de la
celda 0 y el átomo 1 de la celda 2 (a su derecha) es cero. Así mismo, será no nula
entre el átomo 1 de la celda 0 y el 2 de la celda - 1 o entre el átomo 2 de la celda 0 y
el 1 de la celda 1 .

Resolviendo el determinante resulta:

( a, + a 2) \ { a , - a 2Y
e¡( k ) = + + @2 +2I3jI32 coska (4.33)
2 V 4
Podemos analizar algunos casos particulares:
a j= a 2=a; (3^132=(3: Los dos átomos son iguales y equidistantes; la situación es
la del sistema de un átomo por celda, si hubiéramos considerado una celda de
dimensión doble. La energía será:

ei( k ) = a ±2¡3 eos (4.34)

Ahora se tienen dos bandas, degeneradas en Jt/a. Es como si la banda de la


figura 4.21 se hubiera doblado según el eje Ji/2a.

O • o o •

o • o o •
o o o o

O O I O O I o o

Figura 4.24. Bandas correspondientes a dos átomos iguales por celda unidad.
Se han representado los orbitales cristalinos para k=0 y para k=jc/a. Nótese la
degeneración en este punto.

241 Índice
Capítulo 4

Consideremos ahora una distorsión que acerca los dos átomos en cada celda
como se muestra en la figura siguiente:

0 a

Figura 4.25. Distorsión de la situación anterior.

• a = a 2=a; ß ^ ß ^ El valor de la energía es ahora:


ei( k ) = a ± ^j ß f + ß \ +2ßj ß 2 coska (4.35)
y la estructura de bandas:

Figura 4.26. Estructura de bandas correspondiente a la distorsión


en la celda elemental.

La degeneración en k=jt/a se ha roto y ha aparecido una zona de energía


prohibida (gap). Si el sistema tuviera dos electrones por celda elemental, la primera
banda estaría completamente ocupada y cuando se produce la distorsión disminuye
la energía con lo cual la distorsión es un proceso favorecido. Este fenómeno se
denomina distorsión de Peierls, es similar a la distorsión Jahn-Teller en el caso de
moléculas y explica que, por ejemplo, el poliacetileno presenta enlaces alternados
en longitud y es un aislante.

242 Índice
Capítulo 4

En orden creciente de dificultad se podría considerar un sistema bidimensional:


El tratamiento es idéntico al anterior, debiendo considerar ahora dos componentes
para la traslación y, naturalmente, dos componentes para el vector k .

■r Figura 4. 27. Red cuadrada bidimensional.

Los orbitales cristalinos tendrán la forma:

exp( ikama ) exp( ikbn b )x il(r! - ma - m b) (4.36)


m n

Donde ka y kh son las componentes de k . Puede realizarse el mismo tratamiento


anterior y considerar también diversas posibilidades para el parámetro ‘|3 y tipos de
celda elemental. La expresión de la energía de un orbital cristalino será:

E ( k a, k b ) = a + 2/3a coskaa + 2/3b coskbb (4.37)

La estructura de bandas se representa según líneas de la celda de Brillouin que


conectan puntos especiales de la zona:

Y M

Figura 4.28. Zona de Brillouin para una red plana rectangular y esquema de
la representación de una banda hipotética según r-»X -> M -»Y -> r.

A partir de la expresión (4.37) se pueden representar los orbitales cristalinos (se

243 Índice
Capítulo 4

han considerado de tipo s para simplificar) en estos puntos:

OOOOI o#o#
oooo Io#o#
oooo Iomom
r x

Y M
# # # # ! # 0 # 0
ooool o#o#
Figura 4.29. Representación esquemática de los orbitales cristalinos
en algunos puntos de la zona de Brillouin.

Si se eliminan algunas de las simplificaciones anteriores, calculándose el


solapamiento y parametrizando adecuadamente las integrales a y (3 se llega al
método Extended Hückel periódico, del que se disponen códigos de libre acceso,
como YAeHMOP.

4.2.3 .6 Método Hartree Fock periódico.

En este apartado se considerará el tratamiento matemático que traslada el


método Hartree Fock a los sistemas periódicos. Puesto que el programa más
consolidado que utiliza este formalismo y la aproximación LCAO es CRYSTAL,
se incluirá también algunas consideraciones concretas de este programa. (Saunders
et al.,1999):
El desarrollo formal del método Hartree-Fock aplicado a un sistema molecular
conduce a la ecuación
Pcpi( r ) = eicpi( r ) (4.38)
donde F es el operador monoelectrónico de Hartree-Fock,
(4.39)

siendo H° el término que incluye la energía cinética y la interacción núcleo


electrón y J,K los operadores de Coulomb e intercambio.
La aproximación LCAO:

244 Índice
Capítulo 4

(4.40)

permite escribir las ecuaciones de HF en forma matricial:

FA=SAE (4.41)

donde F es la representación matricial del operador ded Fock en la base de


orbitales atómicos:
(4.42)
ip

y p^v = ^ es la representación del operador matriz densidad de primer

orden, donde la suma se extiende a los N/2 orbitales doblemente ocupados de más
baja energia. jjt,v,X,p, son orbitales atómicos y (jxv | Xp) una integral bielectrónica.
La introducción de la simetría traslacional supone la consideración de un
potencial periódico y la resolución parte de la ecuación básica

^ -V 2 +V( r ) ipn(Ìc,r) = en(£)ipn(ìc,r) (4.43)


2m

Los orbitales cristalinos se expresan como:

(4.44)

donde

(4.45)

es decir, son orbitales de Bloch. y - d ^ - 2 ) = x¡¿(r ) es un orbital atómico


centrado en el átomo de coordenada fraccionaria d„r- en la celda 2 -ésima. Cuando
las ecuaciones HF se reescriben, usando como base las funciones de Bloch, las
matrices que resultan son generalizadas, en cuanto que sus elementos de matriz
están clasificados según el índice k . Por ejemplo, para la matriz F se tiene:

(4.46)
Puesto que el operador HF conmuta con los operadores de traslación, y cada
función de Bloch corresponde a una representación irreducible distinta, los
elementos matriciales entre orbitales cristalinos que difieren en k son nulos:

245 Índice
Capítulo 4

Resulta, de este modo, que las matrices tienen una estructura de bloques
diagonales, es decir, F = F ^ ó ( k - k r ) . Las ecuaciones matriciales de Roothan-
Hartree-Fock pueden resolverse independientemente en cada punto k de la primera
zona de Brillouin:

F ( k )A (k ) = S (k )A (k )E( k ) (4.47)

Las dimensiones de las matrices son iguales para cada k e iguales al número de
orbitales atómicos en la celda elemental.
Analizaremos a continuación la forma de los elementos de matriz. Para la
matriz S se tiene:

s nv (k ) = (v? (k , ? ) \pv ( ■ r )) = i 2 exp[iic( g - l ) ] ( x l \xv ) =


g ,t
(4.48)
= í y . exp [ ú ( g - ~ z )] s pj
» 1

de la invarianza traslacional resulta: S 1* = Xv~2) = Sjlv1

indicando con p la diferencia ( g - 1 ) tenemos: S^v ( k ) = ^ exp(ikp )S jUV


^ Jy

g ,pp
JT

puesto que = 1 , se obtiene, finalmente:


E

( ‘£ ) = 2 exp( ¿^p )S ^ c4-49)


p

El tratamiento de los otros términos monoelectrónicos es similar.

Para los términos bielectrónicos tendremos:

( 4 ' 5 0 )

con las definiciones

' i i /i
KF\<pl(¡¿>r ) ) = (q>] ( P , r ' ) \ \ r - r f \ < p ¡( E' xt y<Pj ( l c, r) )

La suma sobre los niveles electrónicos ocupados se traduce en una integración


sobre el espacio recíproco junto con una suma sobre los posibles valores del vector

246 Índice
Capítulo 4

de traslación en la red directa. Forman parte de esta suma aquellos estados cuya
energía es inferior al nivel de Fermi:

Bllv( k ) = J v - 1$ d k ' 6 ( e F - e ) ( j f - j K f )? * ' ) (4.52)

donde V representa el volumen de la primera zona de Brillouin yd es la función


escalón de Heaviside. Sustituyendo las oportunas expresiones para los operadores
de Coulomb e intercambio en términos de las funciones de Bloch y desarrollando
estas en la base de orbitales atómicos se obtiene, tras varias manipulaciones:

B uv(k) = v ~'Jfbz dk' ^ exp[ikg + i k ' Í ^ P ^ d (4.53)

donde

pLvXp x*x (4.54)

. (4.55)

Los sumatorios sobre vectores de la red directa incluyen infinitos términos: uno
de los problemas centrales del cálculo será el modo de truncar eficazmente los
sumatorios sin pérdida de información física.
Aunque el problema de Hartree-Fock se resuelva, según la ecuación (4.47) en
modo independiente para cada punto del retículo recíproco y aunque las cantidades
de interés estén definidas en ese espacio, es necesario definir algunas en el espacio
directo, sobre todo teniendo que, de este modo, algunos esquemas derazonamiento
que se aplican habitualmente a sistemas moleculares, podránser aplicados a
sistemas periódicos de modo inmediato.
Así, la ecuación (4.44) define los orbitales de Bloch y la transformación inversa
es:

x l = —y — J d k - e x p ( - i k l (4.56)
FBZ

Para los operadores se tiene:


d kuv = 2 exp( ^ ffiy (4.57)
£
y su inversa:
° lv = V*-’ J d k ■exp( -ikg (4.58)
FB Z

donde V* es el volumen de la zona de Brillouin. Estas transformaciones


corresponden, naturalmente, a transformadas de Fourier.

247 Índice
Capítulo 4

La energía total por celda unidad se calcula como:


(4.59)
e = í 2 ^ p ^ ( H ^ +b^v )
y la densidad de estados:
D( 8) = 2 ^ ^ J Æ \ a l i \2ô ( e - e f ) (4.60)

Es posible definir una densidad de estados proyectada sobre orbitales atómicos


específicos. Estas densidades son particularmente útiles para la caracterización de
las bandas de energía y para el estudio de las interacciones entre orbitales.
A partir del número de electrones se calcula el nivel de Fermi, necesario en cada
iteración según:
(4.61)
Finalmente la densidad electrónica se obtiene como
(4.62)

Pudiéndose aplicar esquemas de análisis de población como el de Mulliken.


Aunque hasta aquí no se ha tenido en cuenta, es evidente que la simetría puntual
del cristal permite simplificar notablemente el cálculo llevando los dominios de
integración sobre el espacio recíproco a una porción de la zona de Brillouin,
llamada irreducible, que por simetría genera el resto.
En particular si V es una operación de simetría puntual, se obtiene:
E n( k ) = E n(Vk) (4.63)
Aunque el tratamiento no es trivial y lo omitiremos, es posible reducir todo el
proceso SCF a la zona irreducible de Brillouin. La estructura de bandas final se
representa a lo largo de las líneas que delimitan la zona irreducible, mostrando un
corte de las bandas de energía según líneas de elevada simetría.
Como se ha visto, algunas expresiones contienen sumas extendidas a todo el
cristal que deben truncarse e integrales sobre el espacio recíproco, existiendo para
ello diversas técnicas cuyo estudio debería realizarse en las referencias del
programa CRYSTAL. Consideremos abreviadamente algunas ideas generales.
Las series de Coulomb (e-N, e-e, N-N) son individualmente divergentes, se
agrupan y reordenan para eliminar la divergencia y reducir el número de integrales.
Las integrales de intercambio que se combinan con elementos pequeños de la
matriz densidad se suprimen y se aproximan aquellas entre distribuciones que no
se solapan. Las integrales importantes deben ser calculadas muy exactamente y su
selección debe ser muy eficiente.
Para calcular la energía de Fermi y la matriz densidad se utiliza una red de
puntos k denominada red de Monkhorst de forma que sus vectores de base son
bi / s¿ donde bi son los vectores de la red recíproca, s¡ son los denominados
factores de escala. En el caso de sistemas aislantes o semiconductores, puesto que
las bandas están completamente ocupadas o vacías, las integrales se reducen a
sumas ponderadas según la simetría sobre el conjunto de puntos k . Sin embargo,

248 Índice
Capítulo 4

en el caso de conductores deben utilizarse redes más densas (Redes de Gilat) y


técnicas especiales para la integración.
Un ejemplo de estructura de bandas y densidad de estados, se muestra en la
figura siguiente:

Figura 4.30. Estructura de bandas y densidad de estados para el silicio.


Se muestran únicamente las bandas de valencia. La densidad de
estados, en unidades arbitrarias muestran las correspondientes a los
orbitales 3s, 3p y la total.

4.2.3.7 Métodos periódicos que utilizan ondas planas y el formalismo del


funcional de la densidad

Aunque existen programas de cálculo periódicos que utilizan la teoría del


funcional de la densidad y bases atómicas, como CRYSTAL o SIESTA (Spanish
Initiative for Electronic Simulations with Thousands of Atoms) la gran mayoría
utiliza ondas planas como funciones de base (Ver Payne et al, 1992)
Las funciones de Bloch correspondientes a ondas planas se escriben:
* ( r ) = exP ( C"’K exp[iKr]= ^ cn>K exp[i(k + K) r ] (4.64)

donde la función periódica es un conjunto discreto de ondas planas con vector de


onda igual a un vector de la red recíproca del cristal.

249 Índice
Capítulo 4

Dentro de la aproximación de Born-Von Karman, las ondas planas son


ortonormales y forman un conjunto completo, ya que existe un número discreto de
punto k. De este modo cualquier función continua y normalizable puede expandirse
en esta base. Son, en cierto sentido ideales para un sistema periódico, puesto que
no dependen de las posiciones de los átomos ni de su naturaleza y es por ello que
han sido largamente utilizadas, en particular, en el campo de la física del estado
sólido. En principio el número de ondas planas debería ser infinito pero puede
2 I- -y.\ 2
truncarse en función de su energía asociada (ti / 2m\k + a ) para obtener una
base finita. La utilización de ondas planas simplifica las manipulaciones
algebraicas y los cálculos se realizan generalmente en el espacio recíproco. Una de
las dificultades de las ondas planas es que para describir bien los cores atómicos la
expansión debe ser muy grande. Ello hace imprescindible la utilización de
pseudopotenciales.
Las ecuaciones de Kohn-Sham, utilizando las funciones de Bloch descritas,
son:

donde VN es el potencial núcleo-núcleo, VH, el potencial de Hartree y Vxc el


potencial de intercambio-correlación.
Para Vxc se utiliza la aproximación de densidad local (LDA) o bien la
corrección de gradiente generalizado (GCA).
La resolución de las ecuaciones puede realizarse mediante una diagonalización
convencional, pero se han desarrollado técnicas más eficientes, puesto que el
número de funciones de base es enorme. Comentaremos, en particular, el método
basado en la dinámica molecular en el esquema de Car-Parrinello.
El funcional de la energía Kohn-Sham se considera como una función del
conjunto de coeficientes de la base de ondas planas. Cada coeficiente puede verse
como una coordenada de una partícula clásica. Se concede a las partículas una
energía cinética y el sistema se enfría gradualmente hasta que el conjunto de
coeficientes minimiza el funcional. Se trata, pues, de un método dinámico que
utiliza el método variacional y que permite encontrar los valores propios de los
estados de menor energía simultáneamente. La lagrangiana se define como:
(4.66)

donde es una masa ficticia asociada a la función de onda, E es el funcional de la


energía, RI define las posiciones de los núcleos y a el tamaño y la forma de la
celda elemental. El término de energía cinética es debido a los grados de libertad
electrónicos y el funcional representa la energía potencial. Las funciones deben ser
ortonormales y esta condición se introduce en la lagrangiana como multiplicadores
de Lagrange:
L =2 |V>i) - 4 W W k } ]+ 2 ' A k ; ) ■-<5ij\ (4.67)
' i,i

250 Índice
Capítulo 4

Las ecuaciones de movimiento se derivan de las ecuaciones de Lagrange,


d dL dL
(4.68)

(4.69)
j
donde H es el Hamiltoniano Kohn-Sham, ~H%pi el gradiente del funcional que
representa la fuerza y el término de multiplicadores añade fuerzas que aseguran la
ortogonalidad. La restricción de ortogonalidad es muy importante, pero su
conservación en todo momento haría los cálculos muy costosos. En la práctica se
supone muy pequeña la variación de los multiplicadores durante cada intervalo de
tiempo y se aproxima a una constante realizando la ortonormalización en un paso
posterior. Otra posibilidad es utilizar las ecuaciones de movimiento con
restricciones parciales. Para ello, se aproximan los multiplicadores por los valores
esperados de la energía de los estados, y¿, donde y. con lo cual las
ecuaciones del movimiento son:
fiiPi = - ( H - y ¡ )ip¡ (4.70)
consiguiendo, de este modo, que la aceleración de cada estado electrónico se
mantenga ortogonal a ese estado. La aceleración, es decir, la fuerza, será cero
cuando la función de onda sea un estado propio exacto. La integración de las
ecuaciones de movimiento se realiza según el algoritmo de Verlet y después de este
paso se procede a ortogonalizar las funciones de onda.
El procedimiento de Car-Parinello presenta dificultades cuando el sistema en
estudio es muy extenso, debido a inestabilidades y fluctuaciones de la energía,
habiéndose desarrollado procedimientos alternativos más eficientes, como la
utilización del método de gradientes conjugados para minimizar directamente el
funcional de la energía.
El método de Car-Parinello puede utilizarse para optimizar conjuntamente la
función de onda y la geometría del sistema. El proceso es más simple que una
simulación dinámica, puesto que únicamente es de interés el estado final del
sistema, siendo irrelevante el camino recorrido. La lagrangiana de Car-Parinello
tiene la forma:

l I V

donde se han incluido los términos R, posiciones de los núcleos y a , dimensiones


de la celda unidad, siendo (3 una nueva masa ficticia. De este modo se tienen dos
ecuaciones de movimiento adicionales, una para los núcleos:

y otra para la celda unidad:

251 Índice
Capítulo 4

JF
(4*73)
dav
De este modo, las ecuaciones de movimiento para la dinámica de núcleos, celda
unidad y estados electrónicos pueden integrarse al mismo tiempo, siendo la base de
la simulación dinámica ab-initio.
Sin embargo, la integración de las anteriores ecuaciones no es simple debido a
que las fuerzas sobre los núcleos sólo son correctas si las funciones son propias del
Hamitoniano (Teorema de Hellmann-Feynmann). De este modo, las fuerzas no se
pueden calcular hasta que las funciones de onda estén cerca del estado
fundamental. Por otra parte, existe un término adicional que contribuye a las
fuerzas denominado fuerza de Pulay y que es fuente de otro error. Esta fuerza es
cero si las funciones de base son ondas planas, representando una gran ventaja,
pero no ocurre lo mismo para la celda elemental puesto que cambios en la misma
puede hacer cambiar el parámetro de corte de las ondas planas. La magnitud de los
errores en las fuerzas se reduce cuando el sistema se aproxima a un mínimo local y
la configuración electrónica se aproxima cada vez más al estado fundamental. Esta
formulación es equivalente, en definitiva, a la utilización de la aproximación de
Born-Oppenheimer.
Ejemplos de códigos que utilizan algunas de las metodologías descritas son:
CASTEP (Cambridge Serial Total Energy Package) , VASP (Vienna ab initio
simulation páckage), VIEN97, ADF-BAND (Amsterdam Density Functional
program for periodic structures), PWSCF y Car-Parinello PAW.

4.3. A plicaciones al estudio teórico de sólidos

El objetivo de esta sección es el de mostrar las posibilidades de los modelos y


métodos descritos en la sección 4.2 al estudio de propiedades de sólido
distinguiendo entre propiedades estructurales que están determinadas por las
estructura electrónica del estado fundamental y propiedades espectroscópicas que
implican el estudio de estados excitados. Para las primeras los modelos periódicos
son claramente superiores mientras que para las segundas los modelos finitos
constituyen en muchos casos la única alternativa posible. En la descripción de los
diferentes tipos de estados excitados se trata con especial énfasis el fenómeno de
acoplamiento magnético en sólidos iónicos puesto que, por una parte, permite el
vínculo entre problemas de química teórica y conceptos de la física de estado
sólido, y, por otra parte, permite mostrar las enormes posibilidades que se
encuentran en la utilización inteligente y combinada de modelos finitos y modelos
periódicos. Finalmente, se describe la aplicación de estos modelos a algunas de las
transiciones más comúnmente encontradas en sólidos iónicos puros y también
aquellas que derivan de la presencia de defectos puntuales o impurezas para
terminar con una breve descripción de las posibilidades de estas técnicas en el
estudio de sistemas covalentes.

252 Índice
Capítulo 4

4.3.1 Cálculo de propiedades estructurales de sólidos

El cálculo de la energía total de un cristal mediante las técnicas desarrolladas en


el apartado 4.2.3 permite investigar un buen número de propiedades y fenómenos
físicos . La propiedad más directa es la geometría del cristal, es decir, el valor
óptimo de los parámetros de celda que definen el sistema en cuestión. Sin embargo,
existen otras propiedades que pueden ser estudiadas a partir del cálculo de la
energía total. Ejemplos de dichas propiedades son la energía de formación, la
obtención de ecuaciones de estado y transiciones de fase, los coeficientes de
compresibilidad y las constantes elásticas.
El comportamiento de sistemas cristalinos en función de la presión presenta un
gran interés en la simulación de materiales como método complementario de las
técnicas experimentales y en el estudio de transiciones de fase. Aunque las
variables experimentales son la presión y la temperatura, en la simulación se toma
el volumen como variable. Básicamente se fija el volumen de la celda elemental y
se optimizan los parámetros geométricos restantes. El proceso serepite para varios
volúmenes y se representa la energía frente al volumen. Lacurva se ajusta a un
polinomio o a una función de estado y a partir de P = -dE / dV se obtiene E(P) o
V(P). La energía de Gibbs (G=TS+E+PV) controla la estabilidad y como la
temperatura es cero, G se reduce a H y se determina la función H(P).
Otras propiedades importantes dependen de las derivadas segundas de la
energía:
• Con respecto al volumen: módulo de compresibilidad.
• Con respecto a los parámetros de red: constantes elásticas.
• Con respecto a las coordenadas de los átomos en la celda: propiedades
vibracionales.
La exactitud obtenida en este tipo de cálculos depende del nivel de
aproximación teórica (HF, DFT, ...), de la base utilizada y de la precisión numérica
del cálculo.
En el estudio de impurezas o defectos en sólidos, que destruyen la simetría
traslacional, se utiliza el método de la supercelda, consistente en considerar una
celda no primitiva, de mayor tamaño, de modo que el defecto se reproduce
periódicamente pero sin interacción entre defectos. El modelo será tanto más
aceptable cuanto menor sea la densidad de defectos.

Figura 4.31. Modelo de supercelda para el estudio de defectos

253 Índice
Capítulo 4

Una superficie también representa una rotura de la simetría traslacional.


Técnicamente se puede abordar utilizando el modelo de estratos {slab model),
donde la celda elemental consiste en un estrato de átomos con simetría traslacional
en dos dimensiones. Para ello se hace que uno de los vectores elementales sea muy
grande. Se tienen así dos superficies que pueden tratarse a la vez si la interacción
entre ambas es débil aprovechando además algunos elementos de simetría (como
un plano en el centro del estrato) o bien puede saturarse ( en el caso de sistemas
con enlaces covalentes) por una de las caras. En el caso de abordar problemas de
adsorción, también se puede utilizar la técnica de supercelda, permitiendo estudiar,
por ejemplo, el efecto del recubrimiento.
En el caso de utilizar ondas planas, se utiliza la técnica de multiestrato (multi-
slab) donde se considera un número infinito de estratos que se repiten
periódicamente, como si de un cristal tridimensional se tratara. Entre los estratos
existe un vacío que debe ser suficientemente grande para que no haya interacción
entre los estratos.
' .................@....¡fr.
.i<g|>.....................^ jjhjjp.
i-

y-
)..^ | ^ ) .i^ ..^ ^"0$ I "^ )■

m
Figura 4.32. Modelo de multiestratos para el estudio de superficies.

4.3.2 Cálculo de estados excitados en cristales y propiedades relacionadas

En el apartado anterior se han descrito las propiedades que se derivan de la


energía de un cristal en su estado fundamental. Haciendo una comparación con los
sistemas químicos diríamos que se han descrito las propiedades relacionadas con la
termoquímiea. Siguiendo con la misma analogía trataremos a continuación de la
espectroscopia, es decir, el estudio de los estados excitados, y de \&fotoquímica, la
química de los estados excitados. La descripción de las propiedades que implican
estados excitados en el marco de modelos periódicos puede llegar a ser muy
compleja (Fulde, 1995). En un gran número de casos se prescinde de la
complejidad y se aproximan las energías de los estados excitados a diferencias de
energía éntre bandas en un punto dado de la zona irreducible de Brillouin,
excitaciones ópticas, o a la menor diferencia de energía entre bandas, caso del
denominado gap indirecto en algunos semiconductores.
Alternativamente, la utilización de modelos finitos permite abordar el problema
de los estados excitados en sólidos de un modo mucho más simple puesto que al
tratar el modelo finito como si de una supermolécula se tratara es posible emplear
los métodos más sofisticados de la química cuántica y aprovechar la experiencia

254 Índice
Capítulo 4

acumulada en el estudio de estados excitados de sistemas moleculares. A


continuación se detallan algunos ejemplos en los que la utilización de modelos
finitos es claramente ventajosa. En ocasiones es posible comparar directamente
resultados obtenidos de modelos periódicos con aquellos que provienen de modelos
finitos utilizando, en ambos casos, idéntico nivel de descripción ab initio. Esta
comparación permitirá mostrar que existen propiedades suficientemente locales y,
por tanto, susceptibles de ser estudiadas mediante ambos modelos si bien los
modelos finitos permiten utilizar funciones de onda propias de spin y altamente
correlacionadas. Una característica importante que resulta de la utilización de
modelos finitos y funciones de onda de alta precisión es la capacidad de estudiar
problemas que corresponden a escalas de energía muy distintas mediante los
mismos modelos y técnicas computacionales. En efecto, el estudio del
acoplamiento magnético en sólidos iónicos implica transiciones de unos pocos
meV mientras que en el estudio de los excitones de core en diversos compuestos
las diferencias de energía son de casi 100 eV, una diferencia de casi 5 ordenes de
magnitud entre ambos tipos de transición pero un mismo tratamiento teórico.

4.3.2.1 Acoplamiento magnético en sólidos iónicos

En sólidos iónicos cuyos cationes son metales de transición es muy posible que
exista una capa d incompleta. La existencia de electrones no apareados, conlleva
propiedades magnéticas y, a baja temperatura, orden magnético en tres
dimensiones. Compuestos como NiO o KNiF3 están constituidos por cationes Ni2+
en una ordenación cúbica. La simetría cúbica rompe la degeneración de la capa d y
da lugar a orbitales de simetría t y e , respectivamente. La configuración
electrónica de un catión Ni2+ es d8 que, en un entorno cúbico da lugar a una
configuración electrónica t2g6eg2 y, de acuerdo con las reglas de Hund, el estado
fundamental corresponde al término espectral 3A 2. Cada uno de los cationes Ni2+ se
encuentra rodeado de otros seis cationes en las tres direcciones del espacio y
separados por aniones óxido o fluoruro que juegan un papel importante en el orden
magnético resultante. Cada catión puede ser contemplado como una partícula con
momento angular de spin total S=1 y puede interaccionar con sus vecinos mediante
una constante de acoplamiento J según las reglas de interacción de momentos
angulares. Una situación similar se encuentra en el La2C u0 4 y compuestos padre de
la serie de cupratos que pueden presentar superconductividad de alta temperatura
crítica en condiciones de dopaje bien determinadas. En estos cupratos, formados
por planos Cu-O bien caracterizados, el catión Cu2+ presenta una configuración
electrónica d9 y el electrón no apareado se encuentra generalmente en un orbital de
simetría d x2_y2 donde se ha considerado que los planos Cu-0 se encuentran
precisamente en el plano xy. A diferencia de los casos comentados anteriormente el
spin total resultante en cada catión Cu2+es ahora S=Vi.
La interacción resultante se suele describir desde un punto de vista
fenomenólogico mediante un hamiltoniano de spin, siendo el modelo de
Heisenberg de primeros vecinos el más comúnmente utilizado. La forma general de
este operador es

255 Índice
Capítulo 4

ñ Heisenbers = - J J ljS iS J (4.74)


<l,j>

donde la suma se extiende a primeros vecinos y J es la constante de acoplamiento


entre los espines "i” y flj ,f representados por sus correspondientes operadores §¡ y
§ j. Nótese que los operadores §¡ y Sj son operadores vectoriales por lo que
operar con este hamiltoniano requiere manipulaciones algebraicas bastante tediosas
basadas en la utilización de operadores escalera.
El hamiltoniano de Heisenberg conmuta con el cuadrado del operador total de
spin, S 2 por lo que las funciones propias del hamiltoniano de Heisenberg son
también funciones propias de spin. El resultado de la interacción a través de este
hamiltoniano es la aparición de un orden magnético en el cristal. Podemos
distinguir dos ordenes magnéticos bien determinados en los que los espines están
todos acoplados en modo paralelo, ordenación ferromagnética, o en modo
antiparalelo, ordenación antiferromagnética. El convenio de signos empleado en la
definición del hamiltoniano de Heisenberg es tal que un valor de J negativo
corresponde a un orden antiferromagnético. Los compuestos descritos hasta el
momento — NiO, KNiF3 y La 2C u0 4 — presentan todos orden antiferromagnético a
bajas temperaturas lo cual indica que este es precisamente su estado fundamental.
La determinación experimental de la constante de acoplamiento se basa en
medidas de susceptibilidad magnética en función de la temperatura o medidas de
dispersión inelástica de neutrones o espectroscopia Raman. En ambos casos las
medidas experimentales se relacionan con la constante de acoplamiento asumiendo
que el sistema se comporta de acuerdo a un hamiltoniano de Heisenberg (no
necesariamente a primeros vecinos). En general, no existe solución exacta para el
hamiltoniano de Heisenberg de un sistema periódico excepto en el' caso de una
cadena lineal infinita por lo que se recurre a soluciones de campo medio similares
al método Hartree-Fock en estructura electrónica y se denominan fluctuaciones
cuánticas al concepto equivalente a la correlación electrónica. Otra posibilidad
consiste en emplear simulaciones de tipo Monte Cario para un sistema de spines
suficientemente grande. El resultado de la simulación se compara con el que se
obtiene de medidas experimentales. Los valores experimentales de JL son aquellos
para los que el ajuste obtenido a partir de una serie de constantes de acoplamiento
es suficientemente preciso.
Sin embargo, la situación es mucho más simple cuando se considera el caso
hipotético de que existan sólo dos spines en interacción. En ese caso el
hamiltoniano de Heisenberg toma una forma mucho más simple
Ñ Heisenb^ = -J'-S-Sj = -J S ¡S j (4.75)
y es inmediato relacionar la constante de acoplamiento magnético con la diferencia
de energía correspondiente a dos estados propios de spin. Para dos partículas con
spin total S—Vi es trivial demostrar que estos estados corresponden a un
acoplamiento con S total 0 ó 1, es decir acoplamiento a singulete, S, ó triplete, T, y

256 Índice
Capítulo 4

se obtiene precisamente ES-ET=J. Ecuaciones similares se encuentran para el caso


de dos partículas con spin total S=l. Llegados a este punto estamos en condiciones
de poder conectar este problema de física de estado sólido con los métodos de la
Química Cuántica. La correspondencia biunívoca entre estados propios del
hamiltoniano de Heisenberg y estados propios del hamiltoniano exacto convierte el
cálculo de la constante de acoplamiento J en un cálculo de diferencia de energía
entre estados propios de spin. Para poder llevar a cabo el cálculo de J mediante los
métodos de la Química Cuántica es necesario asumir que la constante de
acoplamiento J es un parámetro local que puede ser determinado mediante un
modelo finito. A primera vista esta es una hipótesis que puede parecer descabellada
puesto que el orden magnético es una propiedad del cristal. Sin embargo este
argumento solo se aplica a las propiedades macroscópicas del cristal que deriven
del orden magnético pero de dicho argumento no se puede deducir que J no sea una
propiedad local. Supongamos por un momento que J puede ser determinado
mediante modelos finitos similares a los descritos en el apartado 4.2.1.1. y
tomemos K2NiF 4 como ejemplo. Un modelo adecuado debe contener los dos
centros magnéticos en interacción, la coordinación completa de los centros
magnéticos, una representación de tipo TIP de los cationes que rodean a los
aniones y una red de cargas puntuales que reproduzca el potencial de Madelung
con suficiente precisión. El modelo resultante puede denominarse Ni2Fn o más
precisamente Ni2Fn+TIP+PC y contiene el número de electrones que se derivan de
asumir un comportamiento totalmente iónico. De este modo es posible llevar a
cabo un cálculo de tipo Hartree-Fock de máxima multiplicidad en el que las capas
abiertas coincidan precisamente con los orbitales que son responsables del orden
magnético.

Figura 4.33. El modelo Ni2Fn+TIP+PC utilizado para el estudio del


acoplamiento magnético en K^NiF^

La configuración electrónica resultante corresponde a cuatro electrones en


cuatro orbitales con máxima multiplicidad que corresponde a un quintuplete.
Consideremos por simplicidad el caso más simple de La2C u0 4 donde la
configuración de máxima multiplicidad es un triplete y sólo existen dos electrones

257 Índice
Capítulo 4

en dos orbitales de simetría g y u que provienen de las dos combinaciones posibles


de los orbitales d x2- y2 de cada catión. Este compuesto, como ya se comentó,
presenta orden antiferromagnético. Sin embargo si utilizamos como función de
onda para singulete y triplete una configuración adaptada al spin es claro que la
energía del triplete será inferior ya que es bien conocido que el mecanismo de
intercambio directo favorece los términos de máxima multiplicidad, i.e. las reglas
de Hund. Además, la simetría del estado triplete es u mientras que uno puede
construir funciones singulete de simetría g o u. Para explicar el
antiferromagnetismo de estos compuestos es necesario asumir que existe
interacción entre los centros magnéticos debido a la existencia del puente. Así, a la
situación de un electrón por centro (en orbitales localizados) debiera añadirse la
posibilidad de que ambos electrones se encuentren simultáneamente en el mismo
centro. En definitiva se trata de considerar como función de onda aquella en que
todos los electrones de las capas abiertas se distribuyen entre ellas de todas las
maneras posibles. Esto no es más que una función de tipo Complete Active Space
Configuration Interaction, CASCI, que por otra parte es invariante respecto a la
utilización de orbitales localizados o deslocalizados siendo estos últimos los
preferidos en la práctica puesto que permiten utilizar la simetría y así disminuir la
cantidad de memoria y disco necesarios para poder llevar a cabo el cálculo. La
función CASCI contiene los mecanismos de intercambio directo, que favorecen el
acoplamiento ferromagnético, y también los que provienen de las situaciones
instantáneas con los dos electrones en un determinado centro y que se denominan
de superintercambio, término acuñado inicialmente por Anderson (1963) para
explicar este fenómeno. Sin embargo, si bien los mecanismos de superintercambio
permiten explicar la existencia de compuestos antiferromagnéticos no son
suficientes para explicar este fenómeno de modo cuantitativo ya que los valores de
J que se obtiene de cálculos CASCI es sólo -30% del valor experimental. Podría
pensarse que este resultado es debido bien a la limitación del modelo finito
empleado bien a la simplicidad de la función de onda CASCI que no incluye los
efectos de correlación dinámica. Sin embargo, estudios recientes empleando
modelos con varios centros magnéticos y/o funciones de onda de interacción de
configuraciones más sofisticadas permiten concluir que J es una magnitud local
determinada tan sólo por los dos centros en interacción. Esta afirmación se basa en
el hecho de que es posible reproducir cuantitativamente el valor de J para un
amplio conjunto de compuestos incluyendo varios cupratos que dan lugar a
superconductores de alta temperatura crítica (Ver Illas et al. 1997; Moreira et al.,
1999; Muñoz et al., 2000).
Hasta este momento se ha discutido la aproximación de modelo finito al
problema de acoplamiento magnético. Cabe sin duda pensar en la posibilidad de
estudiar este problema mediante un modelo periódico. Sin embargo todos los
modelos periódicos se basan en el empleo de un determinante de Slater construido
con orbitales de Bloch obtenidos sea de un cálculo Hartree-Fock sea de un cálculo
de tipo Kohn-Sham. En estas condiciones la única manera de tratar un problema de
capas abiertas es mediante la utilización de un formalismo no restringido en que los
orbitales moleculares o bandas de spin alfa pueden ser diferentes a los de spin beta.

258 Índice
Capítulo 4

Volvamos por un momento a nuestro modelo finito para La2C u0 4 para desarrollar
las ideas básicas de esta aproximación no restringida al cálculo del acoplamiento
magnético. Como se ha comentado anteriormente, para poder llevar a cabo el
cálculo del acoplamiento magnético mediante un método no restringido, i.e. UHF,
es necesario utilizar un solo determinante para describir el estado de máxima
multiplicidad y también para el singulete. Para el estado de máxima multiplicidad,
triplete en el caso que nos ocupa, no existe ningún problema puesto que este estado
siempre puede ser descrito mediante un solo determinante aunque la función
resultante tenga necesariamente algo de contaminación de spin ya que no es propia
del cuadrado del operador de spin total, § 2. En el caso del singulete el problema es
mucho más grave ya que no existe forma posible de representar un singulete de
capa abierta mediante un solo determinante. Una posible solución consiste en
utilizar una función de simetría rota donde los orbitales de capa abierta se localizan
en cada centro magnético pero sin existir una equivalencia entre ambos. Es posible
demostrar que en el límite de recubrimiento cero entre orbitales alfa y beta (nótese
que en un cálculo no restringido los orbitales alfa y beta no son ortogonales) dicha
función de onda corresponde a una mezcla al 50% del estado triplete y del estado
singulete por lo que es posible deducir el valor de J. Este razonamiento puede ser
fácilmente extendido si uno considera que el estado de máxima multiplicidad
corresponde a un estado ferromagnético, F, y el de baja multiplicidad a uno
antiferromagnético, AF, y que ambos estados son funciones propias del operador
que corresponde a la componente z del spin total. Ambos estados son además
funciones propias del hamiltoniano de Ising

ñ ,sins = - J y S ZtS Zj = ~J$ZlS Zj (4.76)

y estudiando la relación entre las funciones propias del hamiltoniano de Heisenberg


y el de Ising es posible obtener J a partir de los cálculos no restringidos para los
estados F y AF. En la figura 4.34 se muestra el diagrama de niveles de energía que
corresponde a cada hamiltoniano y como se relaciona la diferencia de energía entre
estados con la constante de acoplamiento magnético. Es necesario aclarar que si
bien las dos componentes del triplete con Ms=±l coinciden con el estado F, el
estado AF no coincide con ninguno de los estado con Ms=0 y sólo se tiene que el
singulete |00> y la componente Ms=0 del triplete, |10>, son las dos posibles
combinaciones lineales al 50% de los dos posibles estados AF que al ser
degenerados respecto al hamiltoniano de Ising pueden ser combinados sin cambio
en la energía respecto a este hamiltoniano a pesar de que ambas combinaciones dan
lugar a un singulete y a un triplete, respectivamente. En el caso de que los centros
magnéticos sean partículas de spin S=1 se puede llegar a un desarrollo similar al
que se representa en la Fig. 4.34 aunque bastante más complejo.

259 Índice
Capítulo 4

jjexacto jjHeisenberg

Figura 4.34. Representación esquemática de la relación entre los


niveles de energía de los hamiltonianos exacto, de Heisenberg y Ising
y la constante de acoplamiento magnético. La notación |SMs> indica
los dos números cuánticos de spin que describen cada estado.

El procedimiento que se acaba de describir para cálculos no restringidos puede


ser transportado de manera inmediata a un formalismo de tipo periódico. Ello
permite obtener J a partir de cálculos periódicos para los estados F y AF utilizando
una celda unidad doble para el caso del estado AF. Por otra parte, la comparación
de valores de J obtenidos a partir de cálculos UHF o DFT no restringidos, i.e.
UB3LYP o UBLYP empleando la notación usual para métodos químico cuánticos,
en modelos finitos y periódicos permite obtener información acerca del carácter
local de J. Estudios recientes para una serie de aislantes iónicos — KNiF3, K^NiF^
La2Cu04, CuF2, etc. — realizados mediante ambos tipos de modelo y un mismo
método químico cuántico obtienen el mismo valor de J mostrando así el carácter
local de este parámetro. Este es un claro ejemplo de uso combinado de ambos
modelos. La comparación entre ambos permite mostrar la validez de los modelos
finitos y, a su vez, estos permiten llevar a cabo cálculos más sofisticados
empleando funciones propias de spin y funciones de onda que incluyen los efectos
de correlación electrónica más importantes permitiendo además establecer la
importancia relativa de los diferentes mecanismos físicos que contribuyen al valor
final de J.

4.3.2.2 Transiciones espectroscópicas en sólidos iónicos

En la sección anterior se comentó que en sólidos iónicos cuyos cationes son


metales de transición es muy posible que exista una capa d incompleta. En este
caso, además de los fenómenos de acoplamiento magnético ya comentados se
pueden producir transiciones espectroscópicas entre las posibles configuraciones
que se originan en por la distinta ocupación de los orbitales que resultan del

260 Índice
Capítulo 4

descenso de simetría, esto es el efecto de campo cristalino. Un ejemplo


paradigmático se encuentra en las transiciones d->d en NiO. En este compuesto se
ha comentado ya que el cation Ni2+ tiene una configuración electrónica d8 que, en
un entorno cúbico da lugar a una configuración electrónica 12gfeg2. Es posible tener
transiciones electrónicas de esta configuración fundamental a otras en las que la
ocupación relativa de los orbitales t2 y eg, el caso más típico lo constituye la
transición t2g6eg2. -* t2g5eg3 denominada comúnmente lODq. Los intentos de predecir
en modo preciso esta transición espectroscópica se remontan a los principios de los
años sesenta y se encuentran ligados a los trabajos de Sugano y Shulman y, más
tarde de Richardson y colaboradores existiendo en la actualidad una importante
cantidad de literatura al respecto. Sin embargo el cálculo preciso de estas
transiciones sólo ha sido posible en la década de los noventa gracias a la utilización
de métodos que incluyen explicitamente los efectos de la correlación electrónica
dinámica y la utilización de modelos como los descritos en las secciones anteriores.
Así, transiciones de tipo d—>d pueden ser reproducidas con una precisión de 0.1 eV
con respecto al experimento. En la tabla siguiente se muestran como ejemplo
algunas de las transiciones tipo d—>d en NiO calculadas, en eV, mediante la
utilización de un modelo NiOó rodeado de potenciales iónicos totales y cargas
puntuales y los métodos CASSCF y CASPT2 empleando bases de tipo ANO
suficientemente extendidas. El espacio activo esta constituido por los orbitales 3d
del metal y un conjunto de orbitales de correlación de la misma simetría. En el
cálculo CASPT2 se incluyen explícitamente los electrones 3s, 3p y 3d del metal y
los 2s y 2p de los aniones. El buen acuerdo entre resultados calculados y
experimentales permite asignar las transiciones y comprender el origen del
espectro.

Estado CA SSCF CA SPT2 Experimental.


0.00 0.00 0.00
ÍA*
3t 2b 0.95 1.12 1.13
«X 1.71 1.73 1.75
a'E g 2.20 1.85 1.95
a ’T,2g 3.05 2.86 2.75
a'A lg 3.64 3.04 2.94
b3TIg 3.53 3.11 3.25
'T lg 3.87 3.68 3.52

Las transiciones d—>d no son las únicas que se observan en los espectros de este
tipo de cristales. Existen otras transiciones espectroscopias denominadas de
transferencia de carga y que pueden ser descritas como la transición de un electrón
de uno de los aniones a la capa d incompleta. En cristales puros estas transiciones

261 Índice
Capítulo 4

también pueden ser estudiadas con precisión mediante la utilización de modelos


finitos. Finalmente, destacar la posibilidad de transición electrónica entre el último
nivel ocupado y el primer virtual. En el lenguaje de los modelos periódicos esta
transición es la responsable del denominado gap en los aislantes iónicos. Esta es
una transición que difícilmente puede ser representada mediante un modelo finito.
Sin embargo, es posible que en el espectro experimental se observen transiciones
espectroscópicas que corresponden a la absorción de energía antes del continuo que
correspondería a la transición de la banda de valencia a la banda de conducción.
Tales transiciones se suelen describir en términos de excitones y el modelo que
utiliza la física de estado sólido es bastante complejo ya que es necesario ir más
allá de la teoría de bandas. En estos casos la utilización de modelos finitos puede
ser especialmente ventajosa. Un caso típico lo constituye la excitación
HOMO-^LUMO en MgO donde el HOMO corresponde a combinación lineal de
los orbitales 2p de los aniones óxido, banda de valencia, y el LUMO
correspondería a los orbitales vacíos 3s del catión. Un cálculo de tipo Hartree-Fock
para el estado fundamental y para el estado excitado es suficiente para demostrar
que el orbital resultante de ocupar el LUMO del estado fundamental con un
electrón no tiene nada que ver con el orbital 3s del MgO y que su extensión abarca
e incluso supera el tamaño del modelo por grande que este se haga. En definitiva el
LUMO del estado fundamental no cambia cuando se ocupa. Esto es una clara
indicación del carácter deslocalizado del LUMO y de la necesidad de describirlo
mediante un modelo periódico. Sin embargo, si uno considera la excitación desde
un orbital de core ls de un catión de la red al primer orbital desocupado, LUMO, el
orbital resultante en el estado excitado resulta tener una extensión finita y
encontrarse confinado en una región del modelo empleado. El estado resultante es
un excitón y la transición resultante corresponde a una energía inferior a la que
correspondería una transición a que tendría si el estado final fuese la banda
conducción. El espectro de absorción de rayos X del MgO muestra que este es
exactamente el caso y predice la existencia de excitones. La utilización de modelos
finitos permite estudiar estos estados de manera relativamente sencilla y constituye
una clara alternativa a los modelos periódicos. Estos por su parte son más
adecuados para estudiar la magnitud del gap de aislantes y semiconductores.
La aplicación de modelos finitos permite también asignar las transiciones
espectroscópicas de impurezas y defectos en sólidos iónicos. Algunas de estas
impurezas existen en concentraciones muy pequeñas, típicamente del orden de 1
átomo de impureza por 102-104 átomos del cristal. A pesar de esta concentración
tan reducida la presencia de impurezas puede cambiar de modo apreciable las
propiedades de un cristal determinado, baste citar el caso del rubí cuyas
propiedades ópticas se deben a. la presencia de impurezas Cr3+que substituyen a los
cationes Al3+en una red de corindón, A120 3, en una proporción de 1:100. El estudio
de la espectroscopia de estos sistemas es difícilmente abordable mediante modelos
periódicos pero es relativamente sencillo mediante la utilización de modelos
finitos.
Finalmente, cabe considerar las propiedades espectroscópicas de algunos
defectos puntuales. La gran mayoría de óxidos son compuestos deficientes en

262 Índice
Capítulo 4

oxígeno. Sin embargo, la inestabilidad del anión óxido en fase gas hace que los
átomos de oxígeno que escapan de la red cristalina lo hagan bien como átomos
neutros bien como aniones O de modo que existen electrones que quedan
atrapados en la red cristalina para así mantener la neutralidad eléctrica del cristal.
Estos electrones atrapados suelen tener una estructura electrónica bastante
localizada y se denominan centros de color o centros F ya que son los responsables
de la aparición de color en los óxidos en atmósferas pobres en oxígeno. El carácter
local de los centros F permite, en principio, estudiar las transiciones
espectroscópicas que implican estos electrones mediante modelos finitos. El
estudio teórico de las transiciones espectroscópicas en centros F se ha abordado
tradicionalmente mediante métodos de tipo semiempírico y solo en los últimos dos
años han aparecido estudios basados en métodos más sofisticados (Pacchioni,
1997).

4.3.2.3 Transiciones espectroscópicas en sólidos covalentes

La discusión en la sección anterior puede ser extendida a algunos sistemas de


tipos covalente y más concretamente al estudio de las transiciones espectroscópicas
de defectos. Un ejemplo de especial relevancia tecnológica lo constituyen las varias
transiciones que pueden ser observadas en sílice amorfa. El espectro de este
material es muy rico y, en gran parte, se debe a la existencia de transiciones
espectroscópicas debidas a un gran número de defectos puntuales. Algunas de estas
transiciones pueden ser asignadas de modo indirecto debido a que involucran
centros paramagnéticos, i.e. que contienen electrones desapareados, que pueden ser
detectados mediante espectroscopia de spin electrónico o EPR. La coincidencia de
una señal de EPR y una banda en el espectro óptico permiten asignar tal transición
a un centro paramagnético. Sin embargo no es posible asignar estos centros de
manera unívoca sin recurrir a la utilización de modelos. La descripción de tales
modelos excede el propósito de este capítulo por lo que se refiere al lector a la
literatura especializada en general y a los trabajos recientes de G. Pacchioni en
particular.

4.4 Estudio teórico de superficies, quim isorción y aplicaciones en


catálisis heterogénea

Los modelos y métodos teóricos descritos en la sección 4.2 pueden ser


aplicados también al estudio de problemas que de modo genérico podrían ser
incluidos en la química de superficies. Como ya se ha mencionado anteriormente la
utilización de un tipo de modelo u otro depende en gran medida del tipo de
problema a estudiar. Así, los problemas que tienen que ver con la reestructuración
de la superficie respecto a la geometría del sólido en respuesta a la rotura de la
simetría tridimensional requieren la utilización de modelos periódicos y la
determinación de la estructura geométrica se realiza siguiendo las técnicas
explicadas en la sección 4.3.1, i.e. mediante la utilización de modelos de slab y
utilizando la simetría traslacional en dos dimensiones. Por otra parte los problemas

263 Índice
Capítulo 4

que derivan de la interacción de un adsorbato con una superficie dada pueden ser
de tipo local o no dependiendo, como es lógico, de la propiedad a estudiar.
Nuevamente, la estructura geométrica ordenada de una fase adsorbida se puede
abordar de modo más natural mediante la utilización de modelos periódicos. Este
es también el caso cuando se pretende estudiar la estabilidad relativa de diferentes
fases adsorbidas o la variación de estabilidad con respecto a la proporción de
átomos ó moléculas en la superficie del sólido. Sin embargo, la geometría, y en
algunos casos, la energía de interacción, de una molécula sobre una superficie es
una propiedad local que puede ser estudiada mediante un modelo finito.
La elección de un u otro modelo y, no menos importante, de un determinado
método es de gran importancia para una correcta descripción del fenómeno físico o
químico que se pretenda estudiar. Un ejemplo muy ilustrativo de este hecho se
encuentra en la interacción de CO sobre la superficie MgO(lOO). Este es a primera
vista un sistema sencillo en el que cualquier método y cualquier modelo debiera
dar la misma respuesta. Sin embargo, han sido necesarios 30 años de trabajo y más
de 40 artículos tanto experimentales como teóricos para poder llegar a una
conclusión definitiva. Es importante recalcar el hecho de que modelos finitos,
modelos periódicos y experimento están en perfecto acuerdo siempre y cuando los
cálculos incluyan energía de correlación de forma explícita, se incluyan
correcciones de gradiente si se usa la teoría del funcional de la densidad, se tenga
en cuenta el efecto de superposición de base si se utilizan bases de tipo gaussiano y
se incluya un embedding adecuado si se utilizan modelos finitos. Por otra parte los
experimentos deben ser en monocristal con las superficies preparadas directamente
en ultra alto vacío y no generadas por deposición sobre una película metálica. Una
descripción completa de la historia de esta interacción será publicada en uno de los
próximos números de la revista Surface Review and Letters.
A continuación se describen algunos aspectos de la ciencia de superficies que
son especialmente relevantes en el campo de la química. Estos incluye el análisis
del enlace de quimisorción, una breve discusión sobre la geometría de especies
adsorbidas, el análisis del desplazamiento de los niveles internos y su relación con
la interpretación de espectros de fotoemisión, el análisis de desplazamientos de
niveles vibracionales y, finalmente, algunos sistemas que tienen particular
relevancia en el estudio de los mecanismos moleculares de la catálisis heterogénea.
4.4.1 Análisis del enlace de quimisorción

La interacción entre un adsorbato y una superficie puede ser estudiada sea


mediante modelos finitos sea mediante modelos periódicos. En el primer caso el
sistema resultante puede ser contemplado como una supermolécula lo cual permite
utilizar cualquiera de los métodos de análisis de la química cuántica molecular. En
el segundo caso el análisis se suele basar en el estudio de la densidad de estados y
de los mapas de densidad electrónica. En el caso de los modelos finitos uno de los
métodos de análisis más empleados es el que se conoce como CSOV o método de
las variaciones en espacios orbital restringidos. La idea central de la técnica CSOV
es la de dividir la energía de interacción entre dos fragmentos en diversas
contribuciones y puede ser utilizada para analizar interacciones calculadas

264 Índice
Capítulo 4

mediante técnicas que se basan en la utilización de una base de orbitales, esto es,
Hartree-Fock, HF, mono- o multi-configuracional, y teoría del funcional de la
densidad, DFT, basada en la formulación de Kohn y Sham. En la técnica CSOV se
obtienen en primer lugar los orbitales moleculares de los dos fragmentos que
interaccionan. En el caso que nos ocupa, orbitales del modelo de superficie, MS, y
del adsorbato, AD. Una vez obtenidos estos orbitales se construye un primer
conjunto de orbitales para el sistema MS+AD superponiendo los de cada fragmento
y ortogonalizando el conjunto resultante. La energía, HF o DFT, obtenida mediante
este conjunto de orbitales es generalmente superior a la de la suma de los
fragmentos puesto que la densidad resultante está fijada de antemano. La energía
de interacción resultante da como resultado la repulsión de Pauli, excepto en la
eventualidad de que los fragmentos se encuentren cargados en cuyo caso la energía
de interacción incluye también la contribución electrostática entre los fragmentos.
A partir de esta densidad, o función de onda inicial, se puede obtener la solución
variacional no restringida y de la energía correspondiente la energía de interacción
total. Sin embargo es posible llegar a la solución variacional en etapas sucesivas en
las que sólo se permite variar a los orbitales ocupados de MS o AD y, además, en
el espacio orbital virtual de sólo MS o AD o en el espacio virtual total. De este
modo se descompone la energía de interacción contribuciones intra- o inter-
fragmento. En el primer caso se obtiene la polarización de cada fragmento, Pol. MS
o Pol. AD, en respuesta a la presencia del otro y en el segundo las donaciones de
carga o enlace químico entre fragmentos, MD—>AD o AD ^M D, respectivamente.
Si la energía calculada después de estas es muy parecida a la que se obtiene del
cálculo variacional sin restricciones la descomposición de la energía de interacción
es significativa. En algunas ocasiones, sin embargo, se requiere un segundo ciclo
de tipo CSOV y se pierde la simplicidad del análisis.
A continuación se discute la aplicación de la técnica CSOV a la interacción
entre la molécula de CO y un modelo Pt13 que representa la superficie P t(lll). Los
resultados se muestran en la tabla siguiente donde AE(I) representa la contribución
de la etapa I de la descomposición CSOV a la energía de interacción total, en eV, y
AE(DFT-HF, I) representa la diferencia entre la contribución obtenida mediante el
método HF y la contribución obtenida mediante la aplicación de los métodos DFT,
usando los funcionales de intercambio y correlación BLYP y B3LYP, en la etapa I
de la descomposición.
El primer resultado importante que se desprende de los resultados en la tabla
que se muestra a continuación es que la diferencia de energía entre la que
corresponde a la última etapa de la descomposición y la que corresponde al cálculo
variacional sin restricciones es insignificante respecto al resto de las contribuciones
lo cual indica que la descomposición realizada tiene significado físico. El segundo
aspecto es que la repulsión de Pauli es distinta en los tres casos lo cual proviene
única y exclusivamente de la diferencia en las densidades electrónicas de cada
fragmento obtenidas por los distintos métodos. Sin embargo, y a pesar de las
diferencias entre métodos, la importancia relativa de las diferentes contribuciones
al enlace de quimisorción predichas por diferentes métodos es cualitativamente la
misma. La polarización de la superficie inducida por la presencia del adsorbato es,

265 Índice
Capítulo 4

en todos los casos, la mayor contribución, seguida por retrodonación de los


orbitales n del metal al 2rc* del CO y la donación del orbital 5a del CO al LUMO
del modelo que representa la banda de conducción del metal. La contribuciones
obtenidas mediante la aplicación de los métodos BLYP y B3LYP son siempre
mayores que las obtenidas mediante HF como cabe esperar ya que los métodos
DFT incluyen los efectos de correlación electrónica.

HF BLYP B3LYP
AE(I) AE(I) AE(DFT-HF,I) AE(I) AE(DFT-HF, I)
Rep. de +4.82 +4.42 -0.40 +4.40 -0.42
Pauli
Pol. MS -1.75 -2.74 -0.99 -1.67 +0.08
M S^A D -1.40 -1.76 -0.36 -1.74 -0.34
Pol. AD -0.23 -0.39 -0.13 -0.37 -0.14
AD->MS -0.95 -1.21 -0.26 -1.19 -0.24
Resto -0.22 -0.35 -0.12 -0.35 -0.13

El análisis del enlace de quimisorción mediante la descomposición CSOV


permite, por tanto, entender los mecanismos de este tipo de enlace y cuantificar
cada contribución por separado. El ejemplo discutido es representativo de la
interacción de CO con superficies de metales de transición y puede ser considerado
como uno de los ejemplos típicos en ciencia de superficies, tanto desde el punto de
vista teórico como experimental. Además, las diferencias entre las contribuciones
predichas por los métodos HF y DFT encontradas en este ejemplo pueden ser
consideradas como generales por los que es posible concluir que la descripción
cualitativa del enlace de quimisorción obtenida de los métodos HF y DFT es
esencialmente la misma.
La técnica CSOV no es la única que permite obtener información acerca de los
mecanismos de enlace en un determinado sistema. Otras técnicas se basan en el
análisis de las curvas de momento dipolar, de aplicabilidad general incluyendo el
estudio a partir de funciones de onda de interacción de configuraciones, del análisis
de las proyecciones de orbitales de fragmentos en la función de onda o densidad
total del supersistema e incluso en el análisis de población de Mulliken si bien este
último debe ser tomado con mucha precaución ya que la repartición arbitraria de la
población de recubrimiento es origen de no pocos artefactos, en un modelo como
Pt13 el análisis de Mulliken predice una carga negativa elevada en el átomo de Pt
central pero ello no tiene ningún significado físico, es el resultado de un artefacto
puesto que este átomo central, al tener mayor coordinación, recibe una mayor
cantidad de población de recubrimiento que los átomos situados en los bordes del
modelo. Existen otras técnicas, como el análisis topologico de la densidad o de la
función de localización electrónica, que también permiten analizar el enlace de
quimisorción de modo bastante cuantitativo si bien su aplicación a este tipo de

266 Índice
Capítulo 4

problemas es, en este momento, bastante limitada. Finalmente, añadir que en


muchas ocasiones la utilización de una sola técnica no basta para obtener una
visión unívoca del enlace de quimisorción lo cual requiere la utilización combinada
de diferentes técnicas.
4.4.2 Estructura geométrica de especies adsorbidas

Cuando un adsorbato y una superficie interaccionan pueden producirse fases


ordenadas o, por el contrario, puede que las especies adsorbidas se encuentren
distribuidas por la superficie de modo irregular. En el primer caso es posible
determinar la estructura geométrica de las especies adsorbidas mediante técnicas de
difracción o de absorción de rayos X. Entre las primeras se encuentra la difracción
de electrones de baja energía, LEED, y la difracción de fotoelectrones, PED,
mientras que entre las segundas la más utilizada es quizás la denominada SEXAFS.
Estas técnicas permiten resolver una gran cantidad de estructuras superficiales, con
o sin adsorbato, aunque presentan algunas limitaciones. En particular, la dificultad
de tratar con la posición relativa de los átomos de hidrógeno de especies adsorbidas
o la imposibilidad de distinguir sitios activos cuando existe mas de uno con la
misma simetría. En estos casos la simulación de la estructura mediante métodos
teóricos resulta ser de gran utilidad y un complemento importante a los resultados
experimentales.
En principio, se podría argumentar que los modelos periódicos son más
adecuados que los finitos ya que permiten una mejor descripción de la estructura
electrónica de la superficie, especialmente si se trata de superficies metálicas. En el
caso de adsorbatos sobre superficies de óxidos y otros materiales altamente iónicos
o bien de semiconductores los modelos finitos son tan adecuados como los
periódicos. Sin embargo, incluso en el caso de las superficies metálicas las
estructuras obtenidas mediante modelos finitos son comparables a las obtenidas
mediante modelos periódicos. Ello es debido a que la geometría de una especie
adsorbida es una propiedad local que concierne fundamentalmente a los átomos de
la molécula y a los átomos de la superficie que interaccionan directamente con ella.
Estos átomos de la superficie son los que precisamente modifican su estructura
electrónica debido a la presencia del cristal, es por ello que las superficies
metálicas constituyen el caso más difícil de representar mediante modelos finitos
mientras que debido a su estructura electrónica altamente deslocalizada pueden ser
estudiadas de manera eficiente mediante métodos que se basan en la utilización de
bases de ondas planas. Alternativamente, la utilización de modelos finitos es
especialmente adecuada para el estudio de substratos iónicos mientras que los
modelos periódicos basados en funciones de ondas planas requieren un coste
computacional elevado para poder representar una estructura electrónica
fuertemente localizada en los iones mediante funciones de base completamente
deslocalizadas. Los materiales de tipo semiconductor representan quizás una
situación intermedia en la que ambos tipos de modelos de adaptan suficientemente
a la realidad experimental. La distancia de enlace entre átomos de F o C1
interaccionando con la superficie S i(lll) con el átomos de F o C1 interaccionando
directamente con un átomo de Si superficial se describe cuantitativamente

267 Índice
Capítulo 4

mediante modelos finitos de tipo Si10H15 y el método Hartree-Fock, la distancia de


enlace así calculada se encuentra dentro del margen de error de la técnica SEXAFS
que es de una o dos centésimas de Á. La coincidencia entre resultados HF y
medidas SEXAFS se debe, en este caso, a la formación de un enlace de tipo iónico
lo cual se pone de manifiesto precisamente mediante la utilización de las técnicas
de análisis descritas en el apartado anterior. Al tratarse de una interacción iónica
los efectos de energía de correlación afectan solamente a la energía relativa de la
asíntota neutra respecto a la asíntota iónica pero no a la forma de la curva de
potencial. La situación cambia cuando se trata de un enlace de quimisorción
dominado por interacciones de tipo covalente. Este es el caso de la interacción de
CO sobre P t(lll), con la molécula de CO interaccionando también directamente
con un átomo de Pt de la superficie, donde los cálculos de tipo HF predicen una
distancia C-Pt demasiado larga. El origen de esta discrepancia respecto a los
resultados experimentales obtenidos de medidas LEED se encuentra, por una parte,
en la excesiva repulsión de Pauli en los cálculos HF y que tiene su origen en una
excesiva extensión de la densidad electrónica de los fragmentos para reducir la
repulsión bielectrónica promedio y, por otra parte, en la omisión de efectos de
correlación electrónica que, como se ha visto en la sección anterior, contribuyen
notablemente a la interacción total resultando en una distancia de enlace más corta.
La geometría resultante de la interacción de CO sobre P t(lll) obtenida mediante
cálculos DFT y utilizando modelos finitos (Curulla et al., 1999) es prácticamente la
misma que se obtiene empleando modelos periódicos y ondas planas y ambas
coinciden con la que se obtiene del análisis LEED.
Es claro que la interacción de CO sobre superficies de diverso tipo tiene un
interés limitado pero constituye un ejemplo típico tanto teórico como experimental.
En otros casos más relevantes en ciencia de superficies o en catálisis heterogénea
no es posible, en general, obtener la estructura a partir de medidas LEED o
SEXAFS, sea porque las especies que se adsorben no lo hacen formando una fase
regular, sea porque reaccionan dando lugar a otras especies e intermedios de
reacción de tiempo de vida media bastante corto. Un claro ejemplo de esta
situación lo constituyen las reacciones de acoplamiento de hidrocarburos en
superficies metálicas donde el número de isómeros presentes en la superficie puede
ser relativamente grande lo cual imposibilita la determinación experimental. De
nuevo, la utilización de modelos teóricos constituye una alternativa importante y
un complemento a los estudios experimentales.
4.4.3 Interpretación de espectros de fotoemisión de especies adsorbidas

La espectroscopia de fotoemisión permite el análisis cualitativo de una muestra


química cualquiera ya que la energía de los niveles internos es característica de
cada átomo. La base científica de esta técnica es relativamente simple, la muestra
se irradia con rayos X o radiación ultravioleta, UV, de frecuencia v que provocan
la ionización de electrones en diferentes niveles, se mide la energía cinética Te de
los electrones así producidos y se obtiene la energía de ligadura de estos electrones,
BE, a partir de la ecuación de Einstein para el efecto fotoeléctrico, esto es

268 Índice
Capítulo 4

hv = Te + BE. Cuando se ionizan electrones de core se habla de XPS mientras que


para los de valencia se emplea el termino UPS. Los valores de BE para niveles
internos o de core son característicos de cada átomo mientras que aquellos de los
niveles de valencia dan información sobre la estructura electrónica de una especie
dada. La utilización analítica de esta técnica se suele conocer como ESCA. Sin
embargo, la espectroscopia de fotoemisión de niveles de core, XPS, también puede
ser empleada para obtener información sobre el entorno químico de un
determinado átomo. En este caso la medida de interés es el desplazamiento de la
energía de ligadura de un nivel interno respecto a un valor que se toma como
patrón y que puede ser el átomo en fase gas o bien el que corresponde al elemento
atómico en su forma sólida más común. El estudio de los desplazamientos de
niveles de core, ABE, es una de las técnicas más utilizadas en ciencia de materiales
para obtener información de la estructura electrónica de éstos. Además, la
espectroscopia de fotoemisión es una técnica que puede ser sensible a la estructura
electrónica de los átomos de superficies o de especies adsorbidas dando lugar a las
espectroscopias con resolución angular que consisten simplemente en medir la
energía cinética de los fotoelectrones con distintos ángulos de salida. Cuando se
recogen en el analizador electrones con ángulo de salida prácticamente
perpendicular a la superficie se obtiene información de los átomos del seno del
sólido mientras que cuando se recogen electrones con ángulo de salida rasante se
obtiene información de los átomos en la región superficial.
La interpretación de los desplazamientos puede ser extremadamente compleja
ya que existen diferentes mecanismos que contribuyen a un determinado
mecanismo. Sin embargo, es común encontrar interpretaciones excesivamente
simplistas de los desplazamientos de BE. Ello es debido a que uno de los
mecanismos que más contribuyen a ABE es el de transferencia de carga. La idea es,
de nuevo, terriblemente simple y se basa en el hecho de que los niveles de core de
un catión se estabilizan respecto a los del átomo neutro y los de un anión se
desestabilizan. Así, se suele emplear ABE como una medida de la transferencia de
carga olvidando otras contribuciones importantes como la coordinación, los efectos
de polarización, de hibridación y de campo eléctrico. Los ejemplos que siguen
muestran lo delicado que es analizar de forma correcta los valores de ABE y la
utilidad de los cálculos teóricos para confirmar o desechar determinadas
interpretaciones (Bagus et al., 1999).
La corrosión de una superficie por oxígeno puede ser estudiada mediante
técnicas de fotoemisión con resolución angular en ultra alto vacío. Los espectros de
XPS registrados en estas condiciones para una superficie A l(lll) indican que las
únicas especies atómicas son Al y O. El pico correspondiente a la ionización del
nivel ls del oxígeno muestra dos picos siendo el de menor energía el que
corresponde a la salida de fotoelectrones en la dirección perpendicular a la
superficie. Además, la intensidad de este pico crece con el tiempo mientras que la
que corresponde al pico de mayor energía de ligadura, que corresponde
fotoelectrones con ángulo de salida rasante y por tanto indican átomos
superficiales, decrece con el tiempo. Un posible interpretación de estos resultados
experimentales consiste en asignar el pico de mayor energía de ligadura de los

269 Índice
Capítulo 4

electrones ls, BEls, a átomos de oxígeno en la superficie y el de menor BEls a


átomos de oxígeno que están penetrando la superficie y formando una capa de
óxido de aluminio. Esta hipótesis es consistente con todos los resultados
experimentales. De acuerdo al modelo de transferencia de carga discutido más
arriba, un átomo de oxígeno que forme parte del óxido habrá recibido carga y por
tanto tendrá una menor BEls que los átomos de superficie. Por otra parte, a medida
que transcurra el tiempo habrá más átomos de oxígeno que podrán difundir hacia el
interior del sólido con lo cual la intensidad del pico XPS correspondiente a estos
últimos crecerá a expensas del pico de la superficie. Sin embargo, no existe modo
directo de confirmar esta hipótesis a partir de medidas experimentales. Por otra
parte, debiera ser relativamente sencillo confirmarla a partir de modelos teóricos en
los que se obtiene la energía de ligadura del nivel ls de átomos de oxígeno
interaccionando con un modelo finito de A l(lll) y obtener la energía de este nivel
en función de la posición relativa del átomo de oxígeno respecto a la superficie.
Para calcular BEls de modo aproximado es suficiente realizar un cálculo de tipo HF
y observar la energía orbitálica correspondiente al orbital molecular dominado por
este orbital atómico y obtener BEls a partir del teorema de Koopmans. Esta
aproximación no permite calcular valores precisos de BE pero basta para
determinar ABE y cuales son los mecanismos que determinan esta cantidad.
Sorprendentemente, el cálculo teórico de BEls para átomos de oxígeno por encima
y por debajo de la superficie indica que los átomos de oxígeno que se encuentran
debajo de la superficie tienen una energía de ligadura de los electrones ls mayor
que los que se encuentran en la superficie. Cálculos mas sofisticados o extensiones
del modelo finito no cambian esta descripción. Este resultado parece indicar que la
hipótesis inicial no es la correcta y es necesario buscar una explicación alternativa.
Podría argumentarse que los dos picos XPS correspondientes a átomos de oxígeno
se deben a un efecto de coordinación debido a un crecimiento de la especie
adsorbida en islas antes de difundir hacía el interior del sólido. Los átomos en el
borde y en el interior de la isla tendrían diferente valor de BEls y, además, los
átomos del borde darían lugar a más fotoelectrones con ángulo de salida casi
paralelo a la superficie que los átomos del interior. Esta hipótesis alternativa
explica los resultados experimentales pero al mismo tiempo está de acuerdo con los
cálculos teóricos descritos anteriormente, con el resultado de cálculos teóricos para
modelos de crecimiento en islas y finalmente, con imágenes de microscopio de
efecto túnel obtenidas en superficies de A l(lll) que exhiben terrazas de suficiente
área.
La discusión en el ejemplo anterior muestra cuan delicado resulta interpretar un
resultado experimental sin un adecuado soporte teórico y cómo la utilización
combinada de medidas experimentales y simulaciones teóricas permite rechazar
unas hipótesis y fortalecer otras. Otro ejemplo ilustrativo de la debilidad de los
argumentos que se basan tan sólo en el mecanismo de transferencia de carga se
encuentra en la adsorción de metales alcalinos sobre metales a bajo recubrimiento.
El modelo mas comúnmente aceptado es el propuesto inicialmente por Langmuir y
que considera que la interacción entre el metal alcalino y la superficie metálica es
de tipo iónico y que el metal alcalino se comporta a todos los efectos como un

270 Índice
Capítulo 4

catión. Esta hipótesis parece estar en contradicción con resultados experimentales


obtenidos para el sistema K /W (lll) en los que se observa un valor pequeño de
ABE para los niveles internos del K contrariamente a lo que cabría esperar del
mecanismos de transferencia de carga. Cálculos teóricos para un sistema de las
mismas características muestran que el pequeño valor de ABE para los niveles
internos del adsorbato se deben a un gran. apantallamiento por parte de los
electrones en la banda de conducción del metal, esto es debidos a la polarización
del metal debido a la presencia del substrato. El mismo tipo de análisis se aplica a
la interacción de metales alcalinos sobre S i(lll) donde medidas experimentales de
variación de la función de trabajo superficial parecen indicar un enlace de tipo
covalente mientras los cálculos teóricos sugieren una interacción iónica como en el
caso de substratos metálicos. Un análisis detallado del enlace de quimisorción
mediante la técnica CSOV y también de ABE y de los mecanismos que gobiernan
esta cantidad demuestra que la interacción es, en efecto, de tipo iónico y que el
pequeño valor de ABE se debe a la polarización del substrato y al efecto del campo
eléctrico originado por el propio enlace de quimisorción.
Un último ejemplo ilustrativo de la ventaja de la utilización combinada de
estudios experimentales y simulaciones teóricas se encuentra en el análisis del
desplazamiento del nivel ls de N en materiales carbonosos derivados de coques de
petroleo. Estos materiales Se utilizan como combustibles y la presencia de N da
lugar a óxidos de nitrógeno que contaminan la atmósfera y producen lluvia ácida.
Eliminar el N del material carbonoso requiere un conocimiento de la estructura por
lo que la primera técnica a utilizar es nuevamente la espectroscopia XPS. El
resultado de tales medidas indica átomos de N con un desplazamiento de ABE que
sólo se encuentra en compuestos en los que el N se halla coordinado a átomos de
oxígeno en grupos funcionales de tipo nitro o similar. Sin embargo el espectro de
XPS no muestra la presencia de especies oxigenadas. La asignación de estos picos
del espectro XPS a grupos funcionales no puede hacerse de este modo tan simplista
sencillamente porque no existen sustancias patrón con las que comparar. La
simulación teórica a partir de modelos permite asignar el origen de los valores
relativamente altos de ABE para el nivel ls de N y demostrar asimismo que la
presencia de estos picos no implica necesariamente la existencia de determinados
grupos funcionales.

4.4.4 Interpretación de espectros vibracionales de especies adsorbidas

La espectroscopia de infrarrojo es una de las técnicas de amplia utilización en


química para la determinación de grupos funcionales en sistemas moleculares. Una
de las aplicaciones relevantes al estudio de superficies procede del campo de la
química organometálica y de complejos polinucleares. En estos sistemas, se han
utilizado medidas basadas en espectros de infrarrojo para obtener los cambios en la
frecuencia de vibración, Av, de diversos ligandos respecto al valor correspondiente
al ligando libre para asignar los modos de coordinación de estos ligandos. Técnicas
similares se han aplicado en ciencia de superficies siendo la más conocida la

271 Índice
Capítulo 4

espectroscopia de perdida de energía electrónica o EELS. Esta ha sido sin lugar a


dudas una de las técnicas mas utilizadas para la asignación de sitios activos y de la
estructura de especies adsorbidas. Sin embargo, medidas cuantitativas basadas en
en difracción de fotoelectrones han demostrado que no siempre es posible asignar
el sitio de adsorción basándose sólo en datos vibracionales. Así pues, un estudio de
los mecanismos que dan lugar a un cierto valor de Av parece inevitable.
Los primeros intentos de racionalizar los valores de Av se remontan a principios
de los años 60 y son debidos a Blyholder quien propuso extender el modelo de
enlace de metal-carbonilo de Dewar-Chat-Duncanson a la interacción de CO sobre
metales. La idea de ambos modelos es muy simple y considera que enlace químico
entre CO y un centro metálico u una superficie metálica se debe a una competición
entre la donación del orbital 5a a los orbitales vacíos del metal, o a la banda de
conducción de la superficie, y la retrodonación de los orbitales dK del metal a los
orbitales 2jc* del CO. El primer mecanismo favorece la transferencia de carga de
CO al metal de modo que el CO se convierte en CO+lo cual conlleva un aumento
de la frecuencia de vibración. Por el contrario, la retrodonación favorece la
existencia de CO' y lleva a una disminución de la frecuencia de vibración. Mientras
que este modelo es adecuado para explicar los valores de Av en complejos metal-
carbonilo su aplicación a la interacción de CO con una superficie ha sido
cuestionada ya que no tiene en cuenta la existencia de la superficie. En general,
cuando la molécula de CO interacciona con una superficie metálica su frecuencia
de vibración disminuye respecto al valor que corresponde a la molécula en fase
gas. El origen de este desplazamiento hacia el rojo de Av en la interacción de CO
sobre Cu(100) fue estudiado por Bagus y colaboradores a principios de los años
ochenta y fue extendido posteriormente a la interacción de CO en superficies de Pt.
Los trabajos de Bagus y colaboradores se basan en la aplicación de la técnica
CSOV al estudio de Av basándose en los valores de energía obtenidos en las
diferentes etapas de la CSOV. Uno de los resultados inesperados del análisis
CSOV de las frecuencias de vibración es el efecto de la repulsión de Pauli que
causa un gran desplazamiento de la frecuencia de vibración pero en sentido
contrario produciendo un aumento notable de la frecuencia de vibración, este
efecto se suele denominar efecto pared ya que representa el efecto que produce la
superficie sobre la densidad electrónica del CO que se mantiene fija sin poder
responder a la presencia de la superficie. Los diferentes mecanismos de enlace
químico contribuyen a la disminución de este efecto pared, incluyendo la donación
debida al par libre 5a de la molécula de CO lo cual constituye una segunda
sorpresa e invalida parte del mecanismo propuesto por Blyholder. En la figura 4.34
se presenta, de modo esquemático, el análisis CSOV de la frecuencia de vibración
de CO adsorbido en la superficie P t(lll) representada mediante modelos finitos Pt4
y Pt13y calculada mediante el método Hartree-Fock.

272 Índice
Capítulo 4

B Pt13

11 Pt4

Figura 4.34. Efecto de los diferentes


mecanismos de enlace de quimisorción que
contribuyen al desplazamiento de la frecuencia
de vibración, Av, de CO adsorbido en P t(lll)
representado por modelos finitos Pt4y Pt13.

La figura 4.34 muestra que los efectos en la frecuencia de vibración de la


molécula de CO son bastante independientes del tamaño del modelo finito
confirmando la naturaleza local de esta propiedad. El efecto de pared debido a la
repulsión de Pauli entre las densidades electrónicas de los fragmentos fijas es de
aumentar la frecuencia de vibración deesta molécula en 400 cm'1,
aproximadamente. El resto de mecanismos van en la misma dirección y
contribuyen a disminuir este desplazamiento inicial. Es notoria la contribución
debida a la retrodonación que es de casi 300 cm'1 confirmando la importancia de
este mecanismo al enlace de quimisorción. Asimismo, destaca la contribución de
casi 100 cm'1 de la donación en 5a a la disminución del efecto pared
contradiciendo de este modo el modelo de Blyholder. Un aspecto muy importante
de este análisis radica en el hecho de que el valor final de Av es el resultado de una
serie de contribuciones por lo que es necesario distinguir entre la utilización de
modelos teóricos para investigar el origen de Av y la utilización de estas técnicas
computacionales para predecir valores preciso de esta cantidad. En este último caso
es necesario escoger un método de cálculo que tenga en cuenta de forma explícita
los efectos de correlación electrónica y un modelo finito suficientemente grande y
cuya región local sea también de tamaño adecuado.
La discusión anterior permite establecer un nexo de unión entre el mecanismo
de enlace y su efecto en una propiedad observable experimentalmente como la
frecuencia de vibración. En ocasiones, sin embargo, no es posible una comparación
directa sea porque la especie adsorbida es distinta de la que corresponde a la fase
gas sea porque el modo de coordinación es desconocido. Este es el caso de la
adsorción de aniones poliatómicos en entorno electroquímico. En estas condiciones
es posible trabajar con electrodos de tipo monocristal con caras bien definidas y

273 Índice
Capítulo 4

obtener espectros de infrarrojo directamente en este entorno. La. interpretación del


espectro suele hacerse por comparación directa con complejos metálicos. Sin
embargo, como en la discusión acerca de la quimisorción de CO, esta comparación
olvida el efecto de la superficie. En el caso del carbonato, un análisis de los modos
normales encontrados para diversos modos de coordinación en modelos reducidos
de la superficie P t(lll) muestra que no siempre es correcto comparar con
complejos moleculares. En efecto, existen modos normales en los que los núcleos
implicados están alejados de la superficie y además el movimiento vibracional los
aleja aun más de la superficie y otros en los que ocurre todo lo contrario. En el
primer caso el valor de la frecuencia de vibración correspondiente al complejo es
muy parecido al que corresponde a la especie adsorbida pero en el segundo caso el
movimiento nuclear es contra la superficie y los valores calculados son muy
diferentes de los que corresponden al complejo y la comparación no es correcta. El
origen de esta diferencia es el efecto pared comentado anteriormente. El estudio
teórico de los modos normales de vibración de especies poliatómicas adsorbidas en
superficies permite asignar correctamente los picos que se observan
experimentalmente y constituye por tanto un complemento ideal a los estudios
experimentales en los que no se dispone de un patrón adecuado para la
comparación. Nótese que la filosofía de trabajo es idéntica a la discutida en la
sección anterior.
4.4.5 Aplicaciones de interés en catálisis heterogénea

Una gran parte del esfuerzo invertido en el estudio de la química de superficies


tanto en el ámbito teórico como experimental proviene del interés en conocer los
mecanismos de la catálisis heterogénea y poder de este modo avanzar hacía un
diseño racional de catalizadores. La complejidad de los procesos catalíticos hace
que en muchas ocasiones los sistemas modelo se alejen en exceso de los sistemas
de interés. Sin embargo, es claro que para mejorar los procesos existentes es
necesario ahondar en el conocimiento de estos procesos desde el punto de vista
molecular. En ocasiones, el sistema objeto de interés es abordable, al menos en
principio. La posible activación de C 02 es uno de los temas de actualidad por su
relación con el calentamiento de la atmósfera y su contribución al efecto
invernadero. La enorme cantidad de C 02 disponible hace que su posible utilización
como reactivo en procesos como la síntesis de metanol o de metano sea
considerada como una posibilidad real. Sin embargo, tal posibilidad choca con la
gran estabilidad termodinámica de esta molécula lo cual hace que se dedique una
gran cantidad de tiempo y esfuerzo a encontrar un catalizador adecuado. Una
primera posibilidad consiste en la utilización de óxidos iónicos y la primera
pregunta que uno debe responder concierne a la reactividad de C 02 frente a estos
óxidos, si existe alguna tendencia determinada y, en caso afirmativo, cual es su
origen. Es conocido que CaO es mas reactivo que MgO frente a la interacción con
carbonato, tendencia que es reproducida por los cálculos teóricos. Para responder
ahora a la pregunta sobre el origen de esta mayor reactividad es necesario recurrir a
la utilización de modelos. Tanto MgO como CaO pueden considerarse como
compuestos totalmente iónicos no existiendo ninguna evidencia significante de una

274 Índice
Capítulo 4

diferencia en su estructura electrónica. De este modo, el origen de la mayor


reactividad del CaO debe tener un origen electrostático. La mayor distancia metal-
oxígeno en CaO hace que el potencial de Madelung en cada ion sea menor y que
por tanto los electrones del anión óxido de CaO estén mas disponibles. En otras
palabras, que la mayor basicidad del CaO tengo un origen puramente electrostático
y no químico. La validez de esta hipótesis se comprueba fácilmente mediante un
experimento computacional que consiste en llevar a cabo el cálculo de la
interacción de C 02 con MgO pero cambiando la distancia Mg-0 por la Ca-O. El
resultado de este experimento computacional denota una mayor reactividad de este
MgO expandido confirmando la hipótesis descrita anteriormente (Pachioni et al.
1994). La utilización de este tipo de modelos y experimentos computacionales es
de gran utilidad para confirmar o desechar hipótesis que de otro modo son
difícilmente contrastables.
Otra posible via de activación de C 02 se encuentra en la interacción de esta
molécula con superficies metálicas. Tanto las medidas experimentales como los
estudios teóricos indican que la estructura geométrica del C02 se distorsiona
notablemente acercándose a la del anión molecular C 02‘ con un ángulo O-C-O de
unos 13G2 aproximadamente pero con una energía de interacción muy pequeña. En
el caso en el que la superficie metálica sea P d (lll) se encuentra una estructura
estable pero no así en P t(lll). Ello es así porque el mecanismo enlace implica una
gran energía de activación para distorsionar a la molécula de su estructura lineal,
coste energético que es compensado por la interacción química, esencialmente
iónica, toda vez que el C 02 activado acepta un electrón de la banda de conducción
del metal y la especie resultante polariza la superficie dando lugar a un interacción
de tipo carga-carga inducida. Este mecanismo permite comprender el efecto de
promotores como los metales alcalinos. La exposición de una superficie metálica a
pequeñas dosis de átomos alcalinos conlleva un aumento de la energía de
interacción del C 02 con el substrato metálico. En la figura 4.35 se muestra la
estructura de C 02 optimizada sobre un modelo Pt16 que contiene un átomo de K
coadsorbido.

Fig. 4.35 Estructura de C 02coadsorbido con K en P t(lll)

275 Índice
Capítulo 4

Dos posibles mecanismos han sido invocados para explicar el origen del efecto
promotor. La primera hipótesis sugiere que el aumento de reactividad de la
superficie proviene de la disminución de la función de trabajo de la superficie
provocada por la adsorción del alcalino. En la segunda hipótesis se atribuye el
efecto promotor a una interacción directa entre el C 02 y los átomos de metal
alcalino. Distinguir entre ambas hipótesis mediante estudios de tipo experimental
no resulta nada fácil. Sin embargo, es posible llevar a cabo experimentos
computacionales que permiten solucionar este conflicto. En efecto, si la primera
hipótesis es correcta no es necesario que el átomo de alcalino se encuentre cerca de
la molécula de C 02. Para poder utilizar el mismo modelo en ambos casos, y evitar
de este modo posibles artefactos, se han llevado a cabo cálculos en los que, a
diferencial de la estructura que se muestra en la figura 4.35, K y C 02se encuentran
adsorbido en las dos superficies distintas del modelo Pt16. Si el efecto promotor del
K es debido simplemente a la disminución de la función de trabajo ambos modelos
deben dar lugar al mismo resultado. No obstante, la molécula de C 02 no se adsorbe
en Pt16-K cuando el átomo de K se encuentra en la otra superficie del modelo. Este
resultado conlleva una clara indicación de que la segunda hipótesis es más
verosímil y permite, una vez más, mostrar la utilidad combinada de teoría y
experimento.
Existen muchos más ejemplos en los que los cálculos teóricos permiten verificar
la validez de un determinado mecanismo. Un ejemplo especialmente atractivo
proviene de los estudios de dimerización de alquinos en superficies metálicas. Es
conocido que el etino trimeriza en P d (lll) dando como resultado mayoritario
benceno. El mecanismo de trimerización propuesto incluye una primera etapa en la
que se forma un intermedio de tipo C4H4 y una segunda etapa en la que este
intermedio reacciona con otra molécula de etino para dar lugar al producto final.
Existen indicaciones experimentales de que tal intermedio existe pero no una
confirmación directa ya que tal intermedio no puede ser aislado. Las indicaciones
proceden del espectro EELS obtenido en las condiciones de la reacción en la que
existen una serie de picos vibracionales que no corresponden a reactivos ni a
productos y que parecen ser debidos a este intermedio. Un estudio teórico basado
en la utilización de modelos finitos revela que el intermedio C4H4 es estable sobre
la superficie metálica en cuestión y el cálculo de las frecuencias de vibración de
esta especie adsorbida confirma la asignación del espectro EELS experimental.
Finalmente, comentar brevemente que aunque la utilización de técnicas
computacionales permite obtener información más y más fiable sobre sistemas de
interés en catálisis heterogénea, es necesario mantener un espíritu crítico frente a
actitudes en exceso triunfalistas sobre la capacidad de determinados métodos o
modelos frente a otros. La interacción metal-soporte es uno de los campos de
interés en catálisis heterogénea toda vez que los metales soportados constituyen
uno de los sistemas catalíticos más empleados. Este interés ha propiciado un buen
número de estudios teóricos sobre este tipo de interacción. La utilización de
métodos diversos —métodos DFT con distintas parametrizaciones de los
funcionales de intercambio y correlación frente a métodos que se basan en la
obtención de funciones que incluyen de manera explícita los efectos de correlación

276 Índice
Capítulo 4

electrónica —, funciones de base de origen muy distinto — funciones de tipo


gaussiano frente a ondas planas — y modelos distintos — modelos finitos frente a
modelos periódicos, ha generado alguna controversia y las diferencias encontradas
en diversos estudios achacadas a deficiencias en los métodos utilizados por otros
autores. Así, en un estudio de la adsorción de Cu en MgO(lOO) basado en modelos
periódicos, ondas planas, y la técnica de Car-Parinello utilizando un funcional de
intercambio y correlación de tipo GGA se encuentra una energía de adhesión de
casi leV, casi el triple del encontrado utilizando modelos finitos y un funcional de
tipo BLYP (López et ai, 1999). Claramente, solucionar la discrepancia exige un
estudio sistemático exhaustivo en el que se comparen diferentes funcionales y
diferentes aproximaciones al cálculo de la función de onda, los efectos de las
funciones de base en ambas metodologías y la influencia del tamaño del modelo.
Incluso para un enlace tan atípico como el de un metal con una superficie de óxido
el resultado de tal estudio sistemático muestra que cuando se utiliza el mismo
funcional de intercambio y correlación los modelos finitos con un entorno
adecuado dan el mismo resultado que los modelos periódicos. Otro resultado
especialmente interesante es el efecto de las funciones de bases. La inclusión de
una segunda función de polarización en el oxigeno que interacciona directamente
con el átomo de Cu o de funciones d y f adicionales en el metal no cambia
significativamente la energía de enlace entre el metal y el soporte cuando esta se
obtiene mediante un método DFT tipo BLYP o B3LYP. Sin embargo, el efecto es
dramático en la energía de enlace calculada mediante los métodos tipo MP4 o
CCSD(T). Por último, la energía de interacción calculada al máximo nivel de
precisión, CCSD(T) con una base extendida que incluye funciones difusas y de
polarización adicionales, coincide prácticamente con la obtenida mediante el
método B3LYP y una base de tipo doble-t; con polarización. La energía de
interacción calculada mediante la aproximación LDA está notablemente
sobrestimada, BLYP o BPW91 corrigen, en parte, este comportamiento y B3LYP
es, sorprendentemente, el que más se acerca al resultado que se podría considerar
como el más preciso. Una conclusión importante que surge de la discusión sobre la
interacción metal-soporte es la necesidad de comparar métodos y modelos cuando
se estudia un tipo de enlace químico del que no se posee suficiente información.

4.5 Com entarios finales

En este capítulo se han discutido las diferentes posibilidades y estrategias


computacionales que existen actualmente para el estudio de materia condensada en
general. En particular, se ha descrito la construcción de modelos poniendo especial
énfasis en las condiciones óptimas de aplicabilidad y adoptando una visión crítica
con cada una de las aproximaciones usadas. La comparación entre diferentes
modelos permite obtener un punto de vista objetivo sobre su alcance y sus
limitaciones. La utilidad y aplicabilidad de los métodos de la química cuántica en
problemas de química de superficies y de estado sólido se ha discutido empleando
sistemas de especial interés por la posible relación de los mismos con nuevas
tecnologías y con la obtención de nuevos materiales. Un aspecto especialmente

277 Índice
Capítulo 4

importante ha sido el de mostrar la conveniencia de utilizar modelos


computacionales para poder asignar adecuadamente las características de un
determinado experimento. El uso de modelos computacionales permite obviar el
problema de falta de referencia o de sustancia patrón que se presenta en este tipo de
sistemas. En definitiva, se ha intentado mostrar que el uso combinado de medidas
experimentales y resultados computacionales provee al químico de una potente
herramienta para el estudio de sistemas complejos.

A gradecim ientos

Los autores quieren expresar su agradecimiento a Francisco Ampie, Jordi


Casanovas, Anna Clotet, Dani Curulla, David Domínguez, Maite García-
Hernández, Alfred Gil, Coen de Graaf, Núria López, Iberio de P.R. Moreira, David
Muñoz, Juan Carlos Paniagua y Carme Sousa, miembros de su grupo de
investigación, a Paul S. Bagus, Rosa Caballol, Roberto Dovesi, Jean Paul Malrieu,
Richard L. Martin, Gianfranco Pacchioni y Notker Rósch, científicos con los que
los autores han tenido el privilegio y el placer de colaborar de forma continuada y a
una larga pero no menos importante lista de investigadores que han desarrollado
parte de su actividad científica en nuestro grupo de investigación. La contribución
científica de todos ellos ha hecho posible la redacción de este capítulo. Finalmente
agradecer al Ministerio de Educación y Cultura su soporte económico continuado a
través de los proyectos CICyT PB98-1216-C02-01 y PB98-1216-C02-02 vigentes
en la actualidad y a través de los proyectos financiados en los últimos 14 años.

Bibliografía

Textos y artículos generales:

BAGUS, P.S. y F. I ll a s (1998) «The Surface Chemical Bond», en Encyclopedia of


Computational Chemistry, P. v. R. Schleyer, N. L. Allinger, T. Clark, J.
Gasteiger, P. A. Kollman, H. F. Schaefer III, P. R. Schreiner, Eds.; John Wiley
& Sons, Chichester, UK, pag. 2870.
F u l d e , P. (1995) «Electron correlations in Molecules and Solids», Solid-State
Science, Springer Verlag, Berlin-Heidelberg-New York.
K ittel , C. (1993) «Introducción a la física del estado sólido», 3a edición, Ed.
Reverté, Barcelona.
PlSANl, C. Ed. (1996) «Quantum-Mechanical Ab-Initio Calculations of the
Properties of Crystalline Materials»., Lecture Notes in Chemistry, Springer-
Verlag, Berlín-Heidelberg-New York.
S a u n d e r s , V. R., R. D o v e s i , C. R o e t t i , M. C a u s á , N.M. H a r r i s o n , R.
ORLANDO Y C. M. ZICOVICH-WILSON, Crystal 98 User’s manual, University of
Torino, 1998.
WHITTEN, J. L. y H. YANG, (1996) «Theory of Chemisorption and Reactions on
Metal Surfaces», Surf. Sci. Rep. 24, 59.
ZANGWILL, A.(1988) «Physics at Surfaces», Cambridge University Press.

278 Índice
Capítulo 4

Artículos relevantes:

A n d e r s o n , P.
W. (1963) Solid State Phys., 14, 99.
F. I l l a s , G. P a c c h io n i y F. P a r m ig ia n i , (1999) J. Electr.
B a g u s , P .S .,
Spectrosc. Relat. Phenom., 100, 215.
BURDETT, J. K., (1984) Prog. Solid St. Chem., 15,173.
C a n a d e l l , E. a n d M. H . W h a n g b o , (1991) C hem . R ev ., 91, 965.
C u r u l l a , D., A. C l o t e t , J. M. RlCART y F. ILLAS, (1999) J. P hys. C hem . B, 103,
5246.
HOFFMANN, R. (1987) Angew. Chem. In. Ed. Engl., 26, 846.
L ópez , N., F. Il l a s , N. R ósch y G. Pacch ioni , (1999) J. Chem. Phys., 110,
4873.
M o r e ir a , I. d e P. R., F. I l l a s , C. J. C a l z a d o , J.F. S a n z , J.P. M a l r i e u , N. B e n
A m o r y D. MAYNAU, (1999) Phys. Rev. B , 59, R6593.
M u ñ o z , D. ,1. d e P.R. M o r e ir a y F. I l l a s , (2000) Phys. Rev. Lett. 84,1579.
P a c c h io n i , G. y G. I e r a n o , (1997) Phys. Rev. Lett., 79, 753.
Pacch ioni , G., J. M. R icart y F. Illa s , (1994) J. Am. Chem. Soc., 116,10152.
Pa y n e , M. C., M. P. T eter , d . C. A l l a n , T. A. A rias y J. D. Joan no po ulo s ,
(1992) Reviews of Modern Physics, 64, 1045.

279 Índice
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
Capítulo 5. Dinámica de las reacciones químicas. I
José María Alvariño
Departamento de Química Física,
Universidad de Salamanca, 37008 Salamanca

5.1 Introducción
L a s c o l i s i o n e s q u e la F í s i c a d e p a r t í c u l a s d i r í a " d e b a j a e n e r g í a " ( n o r m a l m e n ­

te, i n f e r i o r a a l g u n o s c i e n t o s d e k j m o l - 1 o, c u a n d o p u e d e d e f i n i r s e , t e m p e r a ­

t u r a inferior a p o c o s m i l e s d e K ) e n t r e á t o m o s y m o l é c u l a s n e u t r o s o c a r g a d o s

(iones) p u e d e n p r o d u c i r u n a re d i s t r i b u c i ó n d e l c o n j u n t o d e el ec tr on es s o b r e

el s i s t e m a d e n ú c l e o s , n o r m a l m e n t e " e s p e c t a d o r e s " d e l c h o q u e e n l o q u e r e s ­

p e c t a a s u estructura. E l e s t u d i o d e la t r a n s f o r m a c i ó n d e la m a t e r i a a e s t a s

e n e r g í a s es, p o s i b l e m e n t e , el c a m p o d e trabajo m á s g e n u i n a m e n t e químico:

d e h e c h o , se l l a m a reacción química a tal t r a n s f o r m a c i ó n . C u a n d o n o se p r o ­

d u c e u n a redistribución electrónica poscolisional c o n c a m b i o q u í m i c o se dice

q u e el c h o q u e h a s i d o e l á s t i c o o i n e l á s t i c o 1 e n v e z d e r e a c t i v o . C h o q u e s d e l o s

t r e s t i p o s c o n c u r r e n e n el t i e m p o y e n el e s p a c i o y d e t o d o s h a y q u e e n t e n d e r

p a r a d a r c u e n t a a nivel m o l e c u l a r d e u n a reacción química.

La re ac ci ón q u í m i c a es u n proceso intrínsecamente d e n o equilibrio y el

r e c o n o c i m i e n t o d e e s t a r e a l i d a d - g e n e r a l m e n t e n o a s u m i d a p o r la C i n é t i c a

q u í m i c a ( C Q ) - h a o r i g i n a d o el n a c i m i e n t o y c o n s o l i d a c i ó n d e la D i n á m i c a

m o l e c u l a r d e reacciones o D i n á m i c a q u í m i c a ( D Q ) [1], s e g ú n A t k i n s " e l c o ­

r a z ó n d e la Q u í m i c a " [2]. E n D Q s e e s t u d i a e x p e r i m e n t a l y t e ó r i c a m e n t e la

r e a c c i ó n q u í m i c a e l e m e n t a l a i s l a d a , e s d e c i r , s e c o n s i d e r a s ó l o la i n t e r a c c i ó n

d e las ( g e n e r a l m e n t e 2) e s p e c i e s a t ó m i c a s o m o l e c u l a r e s q u e i n t e r v i e n e n e n

la e t a p a e l e m e n t a l i n v e s t i g a d a .

M u c h o s e x p e r i m e n t o s - e s p e c i a l m e n t e si i n t e r v i e n e n e s p e c i e s p o l i a t ó m i c a s

o si s e l l e v a n a c a b o e n f a s e s c o n d e n s a d a s - p r o p o r c i o n a n u n a i n f o r m a c i ó n

frecuentemente m e n o s "termalizada" q u e e n C Q 2 , pero de m e n o r detalle

que en D Q , e n el l í m i t e s ó l o el c o e f i c i e n t e d e v e l o c i d a d k ( T ) . L a a p r o x i m a ­

c i ó n te ó r i c a a p r o p i a d a e n e s t o s c a s o s p u e d e b a s a r s e e n teor ía s estadísticas,

c o m o la t e o r í a d e l e s t a d o d e t r a n s i c i ó n ( T S T ) . L a T S T s e r á c o n s i d e r a d a e n el

c a p í t u l o s i g u i e n t e m i e n t r a s e n é s t e e s t u d i a r e m o s el p u n t o d e v i s t a m i c r o s c ó ­

1Choques inelásticos pueden llevar a excitación electrónica por transferencia de energía y,


por tanto, a redistribución electrónica, pero sin cambio químico.
2Por ejemplo, la TST microcanónica se ocupa de calcular la dependencia energética y de
momento angular total del coeficiente de velocidad, k(E,J).

281 Índice
Capítulo 5

pico. P o r e v i d e n t e s r a z o n e s d e e s p a c i o se h a r á u n e s t u d i o m u y limitado d e

D Q c e n t r a d o e n : 1) el e x p e r i m e n t o p a r a d i g m á t i c o ( h a c e s m o l e c u l a r e s c r u z a ­

dos), q u e se j u z g a i m p r e s c i n d i b l e explicar c o m o presentación d e la D Q , 2)

l a i n t e r p r e t a c i ó n d e e s e e x p e r i m e n t o y s u c o n e x i ó n c o n la t e o r í a p o r m e d i o

d e los d i a g r a m a s d e v e l o c i d a d e s o d e N e w t o n y 3 ) el m é t o d o t e ó r i c o b á s i c o

(trayectorias). A n i v e l i n t r o d u c t o r i o , la m a y o r parte d e las a u s e n c i a s p u e ­

d e n s u p l i r s e c o n l a s refs. [1, 3 , 4 ] , t e x t o s d e c o n s u l t a y e s t u d i o r e c o m e n d a d o s

t a m b i é n p a r a c o m p l e m e n t a r el m a t e r i a l q u e e n e s t e c a p í t u l o s e r e c o g e .

5.2 ¿ Experimentos imaginarios ? : Haces moleculares


cruzados
¿ E s r e a l m e n t e r e a l i z a b l e el e s t u d i o e x p e r i m e n t a l d e la r e a c c i ó n A + B C — >A B

+ C c o n el á t o m o A e n el e s t a d o c u á n t i c o { ¿ } ( r e p r e s e n t a n d o u n a colección

de números c u á n t i c o s i d ó n e a p a r a e s p e c i f i c a r el e s t a d o d e e n e r g í a i n t e r n a )

y velocidad va y la m o l é c u l a B C e n el e s t a d o c u á n t i c o {j} y v e l o c i d a d /'i;C/

c o n f o r m a c i ó n d e los p r o d u c t o s A B y C e n l o s e s t a d o s c u á n t i c o s {/ } y {m }
y velocidades vab y vc, respectivamente ? S e p r e g u n t a , e n otras palabras,

s o b r e la v i a b i l i d a d e x p e r i m e n t a l d e l p r o c e s o " d e e s t a d o a e s t a d o " ,

A({¿}; vk ) + B C ({i}; ^bc) - A B ({Z}; «ab) + C({m}; v c ) (5.1)

A u n q u e hasta bien p a s a d a la m i t a d d e l siglo X X no f u é c l a r a la r e s p u e s t a

( v e r l o q u e H e r s c h b a c h d i c e d e l " h a c h a d e K i s t i a k o w s k y " e n [5]) a c t u a l m e n ­

t e es, p o r s u p u e s t o , a f i r m a t i v a , o b v i a m e n t e d e n t r o d e los lími te s n a t u r a l e s

q u e i m p o n e el p r i n c i p i o d e i n d e t e r m i n a c i ó n . D e h e c h o , h o y e n día, las té c­

ni ca s e x p e r i m e n t a l e s e n D i n á m i c a q u í m i c a s o n v a r i a d a s y p e r m i t e n obtener,

c o n d i f e r e n t e g r a d o d e d e t a l l e , i n f o r m a c i ó n a c e r c a d e la r e a c t i v i d a d a e s c a ­

la m o l e c u l a r . P e r o la t é c n i c a e x p e r i m e n t a l p a r a d i g m á t i c a d e la D Q e s la d e

haces moleculares cruzados [6] q u e p e r m i t e , e n p r i n c i p i o , o b t e n e r la i n f o r ­

m a c i ó n s o b r e la r e a c t i v i d a d " d e e s t a d o a e s t a d o " a q u e a l u d e el i n t e r r o g a n t e

formulado m á s arriba. L a Fig. 1 es u n esquema de una m o d e r n a máquina

d e haces moleculares cruzados e n u n á n g u l o d e 90°. El e l e m e n t o central es

u n a g r a n " c á m a r a d e d i s p e r s i ó n " 3 d o n d e t i e n e l u g a r la c o l i s i ó n e n t r e l o s d o s

h a c e s p r o d u c i d o s e n s e n d a s " f u e n t e s " y c u y o s p r o d u c t o s d e colisión ( sólo

u n o d e ellos, s e g ú n c o n v e n g a ) s o n a n a l i z a d o s e n u n "detector" rotante (ge­

n e r a l m e n t e , s ó l o e n el p l a n o d e l o s h a c e s ; v e r a b a j o ) . L a c á m a r a s e m a n t i e n e a

alto v a c í o ( p r e s i ó n d e l o r d e n d e 1 0 - 7 m b a r ) d e m a n e r a q u e las m o l é c u l a s q u e

intercam biablem ente se usará scattering o, como traducción, dispersión.

282
Índice
Capítulo 5

f o r m a n lo s h a c e s n o c o l i s i o n e n a p r e c i a b l e m e n t e c o n las m o l é c u l a s d e l g a s r e ­

s i d u a l (aire, s o b r e t o d o , y d e r i v a d o s d e la d e s o r c i ó n d e l a s p a r e d e s m e t á l i c a s

i n t e r i o r e s d e l a p a r a t o y d e la p r e s i ó n d e v a p o r d e l a c e i t e u s a d o e n l a s v a r i a s

bombas) a n t e s d e a l c a n z a r la z o n a d e cruce. Esta z o n a define u n pequeñí­

s i m o v o l u m e n d e reacción, A V ( d e l o r d e n d e l m m 3 ). L o s h a c e s m o l e c u l a r e s

utilizados son, a s u vez, m u y " d i l u i d o s " p a r a q u e el c a m i n o l i b r e m e d i o e n t r e

las p a r t í c u l a s d e l h a z s e a m u y g r a n d e y é s t a s n o i n t e r a c c i o n e n e n t r e sí. B a j o

e s t a s c o n d i c i o n e s , l a s m o l é c u l a s t i e n e n u n a a l t a p r o b a b i l i d a d d e a l c a n z a r la

z o n a d e c r u c e m a n t e n i é n d o s e i m p e r t u r b a d a s , e s d e ci r, c o n s e r v a n d o l a s m i s ­

m a s c o n d i c i o n e s e n e r g é t i c a s y e s p a c i a l e s e n l a s q u e h a n s i d o g e n e r a d a s e n la

re s p e c t i v a fuente. C o m o s e v e , las ca ra cterísticas e x p e r i m e n t a l e s g a r a n t i z a n

en buena me dida la s c o n d i c i o n e s p a r a e s t u d i a r l a s c o l i s i o n e s i n d e p e n d i e n ­

t e m e n t e , sin efectos s e c u n d a r i o s . E n los e x p e r i m e n t o s d e h a c e s m o l e c u l a r e s

e s p o s i b l e c o n t r o l a r la v e l o c i d a d d e l a s p a r t í c u l a s e n l o s h a c e s . Además, es

p o s i b l e s e l e c c i o n a r el e s t a d o e n e r g é t i c o y la o r i e n t a c i ó n d e l a s m o l é c u l a s e n

la f u e n t e d e h a c e s m o l e c u l a r e s u t i l i z a n d o l á s e r e s y c a m p o s e l é c t r i c o s y m a g ­

n é t i c o s [7]. C o m o c o n s e c u e n c i a d e la c o l i s i ó n , l a s m o l é c u l a s y á t o m o s p r o d u ­

c i d o s e n la r e a c c i ó n s e d i s p e r s a n e n el e s p a c i o . L o s p r o d u c t o s s o n r e c o g i d o s

p o r u n d e t e c t o r r o t a n t e ( e n la f i g u r a e s e v i d e n t e s u u b i c a c i ó n e n u n ángulo

0 r e s p e c t o al h a z d e A ) , c o p l a n a r c o n l o s h a c e s d e r e a c t i v o s , q u e l o s i d e n t i ­

fica q u í m i c a m e n t e ( g e n e r a l m e n t e p o r e s p e c t r o m e t r í a d e m a s a s a c u a d r u p o l o

tras i o n i z a c i ó n p o r b o m b a r d e o el ec tr ón ic o) y d e t e r m i n a s u e s t a d o e n e r g é t i ­

co: la e n e r g í a c i n é t i c a p o r m e d i d a s d e " t i e m p o d e v u e l o " , T O F , y el e s t a d o

v i b r o - r o t a c i o n a l p o r " f l u o r e s c e n c i a i n d u c i d a p o r lá se r" , LIF. Y aunque sólo

u n a p a r t e d e la d i s p e r s i ó n o c u r r e e n el p l a n o f o r m a d o p o r l o s d o s h a c e s , l o s

reactivos n o están, g e n e r a l m e n t e , p o l a r i z a d o s , es decir s u d i s p o s i c i ó n e s p a ­

cial al salir d e la r e s p e c t i v a f u e n t e ( p r e c o l i s i o n a l ) e s c o m p l e t a m e n t e a l e a t o r i a .

E n e s t e c a s o , l o s p r o d u c t o s s e p r o d u c e n c o n i s o t r o p í a a z i m u t a l e n t o r n o al

e j e d e la v e l o c i d a d r e l a t i v a y e s p o s i b l e r e c o b r a r la n e c e s a r i a i n f o r m a c i ó n tri­

d i m e n s i o n a l a partir d e u n a o b s e r v a c i ó n planar. S e ñ a l e m o s , e n fin, q u e la

r e g i ó n d e d e t e c c i ó n h a d e s e r e v a c u a d a a ú n m e j o r q u e el v o l u m e n g e n e r a l d e

la c á m a r a , d e m o d o q u e la p r e s i ó n r e s i d u a l s e a allí d e l o r d e n d e 1 0 “ 11 m b a r .

A s í , p u e s , el " e x p e r i m e n t o f a n t á s t i c o " o i m a g i n a r i o n o s o l o e s p o s i b l e si­

no q u e , a d e m á s , p u e d e o b s e r v a r s e la r e a c c i ó n " d e e s t a d o a e s t a d o " e n f u n ­

ción del á n g u l o d e scattering, 0 . E s t a p o s i b i l i d a d a d i c i o n a l n o e s n a d a trivial

y a q u e la d i r e c c i o n a l i d a d y la a n i s o t r o p í a s o n r a s g o s f u n d a m e n t a l e s d e la s

reacciones químicas. V a m o s a p o n e r esta d e p e n d e n c i a a n g u l a r e n t é r m i n o s

cuantitativos.

C o n r e f e r e n c i a a la r e a c c i ó n d e e s t a d o a e s t a d o , ec. (1), s e e n c u e n t r a q u e

Índice
Capítulo 5

F i g u r a 1: E s q u e m a d e u n a p a r a t o d e h a c e s m o l e c u l a r e s c r u z a d o s . V e r te xto.

el n ú m e r o d e p a r t í c u l a s d e l p r o d u c t o A B e n el e s t a d o i n t e r n o d a d o p o r ({/})

observadas por unidad de tiempo {intensidad ) p o r u n d e t e c t o r s i t u a d o e n el

p l a n o d e los h a c e s m o l e c u l a r e s e n u n a d i r e c c i ó n q u e f o r m a u n á n g u l o 0 con

la d i r e c c i ó n d e u n o d e l o s h a c e s y q u e c u b r e ( s u b t i e n d e o " v e " ) u n e l e m e n t o

d e á n g u l o sólido d O es

rr>\ d a r ( { l , m , i , j } , V r er , & ) A T/Jri ,c ^


dN m { l} ) (Ü) = ------------ — ------------ V rein^iyjnB c^j^A V dQ , (5.2)

donde vrei e s la v e l o c i d a d r e l a t i v a ( v re/ = v A - v B c) 4 , n A({i}) y n BC({j}) s° n


las d e n s i d a d e s d e l o s r e a c t i v o s e n la z o n a d e c o l i s i ó n y A V e s el v o l u m e n d e
d i c h a z o n a . E s t a e c u a c i ó n d e f i n e , s o b r e t o d o , la sección eficaz diferencial ( D C S )
4Indicaremos en negrita magnitudes vectoriales y en itálica los correspondientes módulos.

284
Índice
Capítulo 5

d e l p r o c e s o r e a c t i v o d e e s t a d o a e s t a d o d o > / d f ¿ , la i n f o r m a c i ó n m á s d e t a l l a d a

5 s o b r e u n a co li s i ón reactiva.

E n e s t e p u n t o d e b e n h a c e r s e d o s p r e c i s i o n e s . P r i m e r a , la D C S es u n a m a g ­

n i t u d r e s u l t a n t e d e la o b s e r v a c i ó n (e s u n observable) o d e l p e r t i n e n t e cálculo

d e m u c h a s colisiones i n d i v i d u a l e s ( m u c h a s trayectorias, d i r e m o s m á s adelan­

te). S e g u n d a , l a s v a r i a b l e s a n g u l a r e s d e la ec. (2), e s de c i r , 0 y d O s o n re­

f e r i d a s al e x p e r i m e n t o o l a b o r a t o r i o ( L A B , v e r m á s adelante). U t i l i z a n d o la

c o n s e r v a c i ó n d e l fl u j o e n c u a l q u i e r s i s t e m a d e r e f e r e n c i a y r e l a c i o n e s t r i g o n o ­

m é t r i c a s a p r o p i a d a s s e o b t i e n e el jacobiano [1] c o n c u y a a y u d a p u e d e c o n v e r ­

tirse la ec. (2) al s i s t e m a l l a m a d o d e c e n t r o d e m a s a s ( C M , v e r m á s a d e l a n t e )

en el q u e el á n g u l o d e scattering se designa por 6 y el e l e m e n t o d e ángulo

s ó l i d o p o r d w ( c f . [3]).

A p a r t i r d e la s e c c i ó n e f i c a z d i f e r e n c i a l e s p o s i b l e o b t e n e r , p o r i n t e g r a c i ó n

a t o d o el á n g u l o s ó l i d o , la s e c c i ó n e f i c a z r e a c t i v a t o t a l

(5.3)

Esta m a g n i t u d i n t e g r a d a es u n a me di da de la r e a c t i v i d a d c o l i s i o n a l d e l a s

especies A y B C e n s u s e s t a d o s i n t e r n o s ({i}) y ({i}) c o n v e l o c i d a d relativa

v rei p a r a d a r los p r o d u c t o s A B y C e n los e s t a d o s i n t e r n o s ({/}) y ( {rn}), todo

ello s i n r e st ri cc io ne s e s pa ci al es .

5.3 Sección eficaz y coeficiente de velocidad. Relaciones


de reactividad en reacciones opuestas.
E n u n e x p e r i m e n t o ideal es p o s i b l e p e n s a r e n h a c e s m o l e c u l a r e s c o n v e l o ­

c i d a d e s va y vb c p e r f e c t a m e n t e definidas. P e r o e n e x p e r i m e n t o s reales se

d e b e n h a c e r c o r r e c c i o n e s p o r la a n c h u r a finita d e l a s d i s t r i b u c i o n e s f(t>A) y

f(^Bc)/ las c u a l e s p o d e m o s , s i n p é r d i d a d e g e n e r a l i d a d y c o n el o b j e t i v o d e

c o n e c t a r c o n la C i n é t i c a q u í m i c a , i m a g i n a r d e M a x w e l l - B o l t z m a n n y p a r a -

m e t r i z a d a s , p o r t a n t o , p o r u n a t e m p e r a t u r a , T. S i a h o r a q u i s i é r a m o s c a l c u l a r

el n ú m e r o d e p a r t í c u l a s d e l p r o d u c t o A B observadas por unidad de tiempo

e n t o d o el e s p a c i o y p a r a t o d o s l o s e s t a d o s i n t e r n o s d e r e a c t i v o s y p r o d u c ­

t o s ( e n p a r t i c u l a r , p o r t a n t o , p a r a t o d o {¿}, e s d e c i r , s i n d i s c r i m i n a r el e s t a d o

interno d e A B ) a c c e s i b l e s a la c i t a d a t e m p e r a t u r a T, p o d r í a m o s p a r t i r d e la

ec. (2) s u m a n d o a t o d o {Z, m , z, j} e integrando a todo va y vbc y & t o d o el

5Con reactivos no polarizados; si los reactivos y /o productos son polarizados surge la


PDDCS, la sección eficaz diferencial dependiente de la polarización [8].

285 Índice
Capítulo 5

espacio, o sea a todo O. Combinando con la ec. (3) desaparece la integración


a f i y s e llega a

xf{vA )f(v B c )d v AdvBc (5.4)

Por otro lado, en un marco de Cinética química contemplaríamos la reac­


ción "térmica" A +BC^A B + C, viniendo k(T) definida por

-^-ydÑAB = k(T)nAnBc (5.5)

que comparada con (4) lleva a la siguiente identificación

Xf(.vA) f( v Bc)dvAdvBc (5.6)

en la cual Ía{¿} = Y ”nec * son ^as distribuciones de esta-


dos internos de los reactivos A y BC a la tem peratura T . Usando ya for­
mas explícitas de M axwell-Boltzmann para í(^a) y f(^Bc)/ cambiando varia­
bles a la velocidad relativa vre¡ y masa reducida de la pareja de reactivos,
/i = (iiia *m sc) /M (donde M = iba + hibc)/ suponiendo también "termaliza-
dos" los estados internos de energía de A y BC y prom ediando sobre ellos a
la tem peratura T y sumando, finalmente, a los estados internos de productos
se obtiene nuestra relación final macro-micro

[vreiar(vrei] T)] v2rel exp ( Pvrd ) dvrei (5.7)


reí 2'irk'QT

en la que se ha usado la definición

('Vrei;T ) = < 'Y2Vrel°r({l,m ,Í, j} ) >f¿ (5.8)

sección eficaz reactiva a la velocidad relativa vrei fija (es decir, a la energía de
colisión fija Ere¿ = (1/2)¡iv^el)f promediando a los estados internos de reacti­
vos y sumando a los estados internos de productos, todo ello a la temperatura
T.

286 Índice
Capítulo 5

Se ha escrito a propósito el integrando de la ec. (7) de forma que desta­


que ésto: k(T) es el promedio para una distribución "termalizada" (es decir,
de Maxwell-Boltzmann) de velocidades del producto [vrar (vrei; T)], es decir,
k(T) =< [*vreiar (vrei; T)] >. En el modelo colisional más simple de reacciones
bim oleculares, la teoría de esferas duras, se usa k(T)=< vrei >< (Jr{vrei; T) >
que solo coincide con la forma correcta si ar es constante, lo que es cierto
para ese modelo, pero no en interacciones realistas para reacciones químicas.
El uso, alcance y limitaciones de varios modelos partiendo, precisamente, del
de esferas duras ha sido publicado en otro lugar [9], pero aquí nos interesan
teorías y cálculos más apropiados para experimentos.
Sin embargo, para terminar este apartado de las relaciones entre sección
eficaz y coeficiente de velocidad mencionaremos, todavía, dos importantes
asuntos relacionados con la ec. (7) o, más bien, con la ecuación análoga tri­
vialmente resultante del cambio de variable vrei a E rei

k(T) = (1 / k BT )(— ^— ) ^ 2 í [ar{Erel-T)} E rel exp ( - f ^ ) d E rel (5.9)


TTflkBl J Erei KBJ-

Por una parte, se puede deducir de aquí una interpretación física de una mag­
nitud relevante en Cinética química, la "energía de activación", definida por
F _ V d¿nk(T)
a~~ B d(l/T)

Se puede probar [10] que de su definición y la ec. (9) resulta

E a — E rei + E i n t ]>colis.react. ^ E re [ + E i n ¿ > todascolis.


— ^ E to t. ^ colis.react. ^ -E'íoí. ^ todascolis.

una interpretación colisional (es decir, microscópica) y rigurosa de la energía


de activación.
Por otra parte, la ec. (9) permite, en principio, obtener k(T) a partir de medi­
das experimentales o cálculos de ar (Erei; T ). En uno u otro caso, un resultado
razonable solo se consigue disponiendo de una malla adecuada de valores de
ar {Erei), lo que limita frecuentemente su utilidad al cálculo, especialmente
de trayectorias. Sobre esta dificultad experimental volveremos más adelante.
Por supuesto, un modelo que prevea la forma funcional de ar (Erei) también
lleva , a través de (9), a k(T). Aquí, otra vez nos remitimos a [9]. Es evidente,
finalmente, que el problema inverso, obtener ar {Erei\T ) a partir de k(T) no
tiene solución única: la Cinética química no puede responder unívocamente
a la Dinámica química.

287 Índice
Capítulo 5

Para completar, en cierta forma, esta sección del capítulo nos parece opor­
tuno referimos a las relaciones cuantitativas entre la reactividad micro y ma­
croscópica de reacciones opuestas. Efectivamente, la reactividad microscópi­
ca (secciones eficaces) y macroscópica (coeficientes de velocidad) de la reac­
ción AB + C —>A +BC, opuesta a A + BC —>AB + C, no están desligadas de las
de ésta. En efecto, la invariancia de las ecuaciones dinámicas (tanto de Schro-
dinger como de Newton) a la inversión temporal (t—>-t) implica una relación
entre ambas DCS (reversibilidad microscópica). Promediando adecuadamente
en línea con las ideas pergeñadas en los anteriores párrafos se encuentran
relaciones análogas entre ambos coeficientes de velocidad (balance detallado).
Cuando el promediado de éstos se lleva a todos los grados de libertad, la rela­
ción entre los coeficientes ("térmicos) de velocidad de las reacciones opuestas
es la conocida k_»(T)/k<_(T)=K(T), constante de equilibrio [2, 3]. Las relacio­
nes precisas y otros detalles pueden verse en el texto de Smith [3].

5.4 Del laboratorio al cálculo. Cinemática de colisiones:


Diagramas de Newton.
En adelante, abandonamos 6el mundo, macroscópico y nos dedicamos a coli-
siones entre partículas. Desde el punto de vista teórico, se trata de plantear
un hamiltoniano, H=T+V y resolver las ecuaciones del movimiento clásicas
(H, T y V son funciones) o cuánticas (H, T y V son operadores). En todo
caso, H comprende una parte ligada a T, la cinemática (siendo masas, momen­
tos lineales y angulares y velocidades las variables) y una parte ligada a V,
la dinámica. La evaluación de una y otra plantea problemas diferentes. El
cálculo de V (la superficie de energía potencial o PES) es (en el marco de Born-
Oppenheimer en que nos moveremos) un problema de estructura electrónica
y ajuste de una función analítica, y debe abordarse independientem ente de
la parte cinemática o sea del tratamiento clásico o cuántico a seguir para re­
solver las ecuaciones del movimiento. Por otro lado, y especialmente por
la necesidad de cambiar de coordenadas internas en el paso de reactivos a
productos, la forma de T para colisiones reactivas (incluso triatómicas) trata­
das a nivel cuántico es un problema de considerable envergadura al que se
sigue dedicando una gran cantidad de esfuerzo investigador [11]. Hay, con
todo, algunas cuestiones cinemáticas más simples que debemos abordar en
este apartado.
Existen dos diferentes perspectivas para considerar la cinemática de coli­
6Sintomático: a partir de este punto T significará energía cinética y no temperatura.

288 Índice
Capítulo 5

siones: el sistema de laboratorio (LAB) y el sistema de centro de masas (CM).


El sistema LAB es aquel en que se llevan a cabo los experimentos, pero el
cálculo teórico es más simple en CM. Designaremos por vx la velocidad en
LAB de cualquier partícula X (como ya hacemos desde la ec. (1)) y por ux
la velocidad en CM. Se define el sistema CM como aquel en que el centro
de masas (baricentro) de los colisionantes está en reposo, o sea que, en CM,
el momento lineal (impulso) total es cero, P=0. Esto significa, para las dos
partículas A y BC de nuestra colisión general,

PA “ - P bc

o sea,

h ia u a = -m B c U R C (5.10)

Por tanto, con referencia al típico experimento de haces moleculares (cruce en


90°) un observador en LAB vería "desde fuera" el choque de dos proyectiles
aproximándose mutuamente con trayectorias exactamente perpendiculares.
En cambio, un observador en CM vería "desde dentro" ambos proyectiles
acercándosele (¡) desde direcciones opuestas (no necesariamente en trayecto­
rias colineales, tan solo paralelas: la separación es el parámetro de impacto, otro
concepto fundamental en dinámica del que nos ocuparemos más adelante).
La conservación del momento lineal implica P=0 también para las partícu­
las después del choque, así que si éste es reactivo (como en (1)) debe cumplir­
se

mc uc = —h i a b u a b (5.11)

Dado que en experimentos se usa el sistema LAB mientras los cálculos usan
el sistema CM, es preciso relacionar LAB y CM para comparar medidas y
cálculos. ¿ Cómo están relacionadas las v y las u ? Para cada partícula (X=A,
BC, C, AB) es

ux = vx - c (5.12)

siendo
H Ia V a + m BCVBC
(5.13)
C_ M
la velocidad del centro de masas (o centroide) en LAB.
Por tanto, LAB y CM están relacionados por una transformación de Gali-
leo [12]. En efecto, dado que ningún proceso físico, como el de dispersión

289 Índice
Capítulo 5

que tratamos de describir, debe depender de la velocidad del observador, po­


demos restar una velocidad arbitraria cualquiera de las velocidades de los
varios X sin que cambie la probabilidad del proceso. Por conveniencia, elegi­
mos la velocidad del centro de masas, c, como tal velocidad. Es igualmente
conveniente introducir la velocidad relativa, obviamente independiente del
sistema de referencia. La de reactivos,

Vrel = VA “ VBC = UA “ UBC (5.14)

se ha usado ya y, análogamente, se define una velocidad relativa de productos

v íel = V AB “ VC = UAB “ UC

Combinando (10) y (14) se obtiene una "regla de la palanca" para el reparto


de v rei entre u A y u Bc
mBC mA 1Kv
UA = - y j - Vrel UBC = Vrel (5‘15)

con un reparto análogo de v 'el entre uc y uab* Con todo ésto, pueden fá­
cilmente (ver detalles en el Ap. A de [8]) escribirse relaciones que dan las 4
velocidades en LAB en función de vrei y v 'el, bajando, así, de 12 a 6 el nú­
mero de variables significativas. El número puede reducirse a solo 2 (vTe\, el
módulo de la velocidad relativa de reactivos y 0 = cos-1 (vrei.v'el), el ángu­
lo de scattering) si se reconoce la simetría rotacional y azimutal del proceso
(para reactivos no polarizados) y se usa, en fin, la conservación de la energía.
Por tanto, el proceso (1) con reactivos no polarizados puede describirse en
función solo de la energía de colisión y del ángulo de scattering. Justamente,
éstas son las variables que figuran como argumento de la DCS en ec. (2) que
resulta, así, consistente con el resultado obtenido. La DCS es un observable,
pero en colisiones "individuales" (es decir, estrictamente de 2 cuerpos) hay
que añadir a esas dos variables el parámetro de impacto, separación entre los
vectores u a y u Bc que no es distinguida en CM.
Las relaciones vectoriales anteriores se prestan claramente a una represen­
tación gráfica. En ella quedará claro, además, cómo simples consideraciones
cinemáticas imponen limitaciones a la viabilidad o no de un previsto experi­
mento. Estamos hablando del llamado diagram a cinemático o de velocida­
des o, más corrientemente, diagrama de Newton. Se trata de un diagrama
vectorial en LAB y en CM de las velocidades de las partículas participantes
en una colisión antes y despues de ésta. Estas composiciones vectoriales de
velocidades no plantean problema alguno en un marco mecano-clásico, pe­
ro una cuestión previa que surge, derivada de la posible incompatibilidad

290 Índice
Capítulo 5

momento-posición por el principio de Heisenberg, es su validez en el con­


texto real del experimento o de un posible cálculo cuántico. La respuesta es
que se trata de relaciones vectoriales de momento lineal o velocidad que se
aplican en regiones asintóticas (reactivos y productos) donde las partículas
no precisan ser localizadas en el espacio pudiendo entonces tener momentos
bien definidos.
El objetivo de este capítulo es la reacción química, es decir, al nivel mo­
lecular, el choque reactivo. Pero, como se adelantó en la Introducción no es
posible entender éste sin haber considerado previamente el choque elástico y
el choque inelástico. Por tanto, vamos a presentar el diagrama de Newton de
una colisión elástica. Previamente debemos definirla, claro. Lo vamos a hacer
tomando como base la notación habitual de la reacción química, la ec. (1)
pero modificada ad hoc. Una colisión elástica sería

A({¿};va) + BC({j'}; z;bc ) A({¿};i;a ) + BC({j}; ^Bc ) (5.16)

es decir el choque elástico es aquel que ocurre sin cambio químico y sin cam­
bio en los estados de energía interna y cinética de los colisionantes. No hay
cambios en las magnitudes escalares y los únicos cambios posibles afectan a
las magnitudes vectoriales, v a y vbc* Veamos cómo se formula ésto en LAB
y en CM.
Usando las ecs. (13) para c y (14) para v rei se escribe la energía cinética total

T = (1/2) mAv | + (1/2) mBc v BC = (V 2) M° 2 + (V 2) Mvr e í (5-17)

y, designando con 7a las m agnitudes finales, la conservación de la energía se


escribe (la energía interna no cambia en el choque elástico)

(1/2) Me2 + (1/2) ^ 2rel = (1/2) Me2 + (1/2) ^ ' 2rel (5.18)

ya que c es constante. Por tanto, la constancia del módulo de la velocidad


relativa

Vrel = v'rei (5.19)

caracteriza a un choque elástico en LAB y

UA = u'A 1¿BC = ^BC (5-20)

en CM. En resumen, sólo las direcciones de las velocidades de A y BC pueden


ser distintas en un choque elástico.

291 Índice
Capítulo 5

En una colisión inelástica no hay tampoco cambio químico pero algún es­
tado interno y /o la energía cinética de los colisionantes debe cambiar en el
choque. En esquema, en el caso más general

A({¿}; va ) + BC({j}; ^Bc) —^ A({&}; v'A) + BC({/}; vlBC)


Por tanto, en vez de (18) la conservación de la energía resulta en una colisión
inelástica

(l/2)/ivr2e¡ + AW = (l/2)Mv'L . (5-21)


siendo A W la inelasticidad, es decir, la cantidad neta de energía interna trans­
ferida, A W = W-W'. Obsérvese que A W >0 significa transferencia neta de
energía interna—>traslacional (V, R—>T), es decir una pérdida de energía inter­
na o "enfriamiento" pos-colisional, mientras A W <0 quiere decir lo contrario
o sea un "calentamiento" como consecuencia de la colisión. Se entiende, así,
que los choques inelásticos sean el mecanismo por el que a nivel molecular
se relajan las distribuciones "calientes" producidas por aportaciones externas
irreversibles (en sentido termodinàmico) de energía mientras que basta con
choques elásticos para relajar una distribución anisotrópica de velocidades
[13].
En un choque reactivo, finalmente, hay, junto a la posible transferencia por
inelasticidad, una "transferencia" de energía (o ergicidad) química, ADo=Do~
DÓ(ADo>0 significa reacción endoérgica, ADo<0 reacción exoérgica) y la con­
servación de la energía se formula

Eavail = (1/2) + w- ADo = (1/2) m v'L + w ' (5.22)


De (21) y (22) se deducen inmediatamente expresiones para v'rel y para las
varias u'x en función de las pertinentes masas y de A W y ADo, expresiones
que deben usarse en la elaboración del correspondiente diagrama de New­
ton. Eavaii es la energía disponible (disponible para los productos). Nótese que
en una colisión reactiva se deben calcular W y W ' con respecto al propio nivel
de energía cero de reactivos y de productos, respectivamente. Si, como en (1),
se trata, precisamente, de una reacción átomo+molécula diatómica, el cero se
refiere, para las cuatro especies a su respectivo estado electrónico fundamen­
tal y para las moléculas, además, a sus respectivos estados fundamentales de
vibración y rotación (v=j=0 para BC y v'=j'=0 para AB). De tal modo que si
partimos de BC(v=j=0), es W=0 y si llegamos a AB(v'=j'=0), es W'=0, y AW=0,
en este caso.
Pasamos ya a considerar el diagrama de Newton para una colisión elástica.
En su construcción se siguen estos pasos (ver Figs. 2 y 3):

292 Índice
Capítulo 5

\\
S

Figura 2: Diagrama de N ew ton para una colisión elástica con m ee = %UA y


v a / vbc = 21/ 2. Se destaca el "círculo elástico". Ver texto.

1. Se dibujan a escala y en un ángulo de 90° (haces moleculares cruzados


normalmente así) va y vbc - Se compone v rei con ec. (14).

2. Usando la ec. (15) se localiza el CM de A y BC (y, por tanto, el vector c,


velocidad del CM) a lo largo de v r y se parte este vector en ua y ubc -
Nótese el cumplimiento de las ecs. (12) de la composición vectorial en
la figura obtenida hasta este punto.

3. Se traza el círculo con centro en CM y radio igual a ua (suponemos


que A es la especie observada por el detector). En virtud de la ec. (20)
cualquier dirección radial de este llamado "círculo elástico" (Fig. 2) es
un posible u'A. En LAB la velocidad viene dada por (12), es decir por el
vector v A = u A + c.

El ángulo de scattering en LAB, 0 , es el formado por v A y va (el haz de


A en Fig. 1). En CM, el ángulo de scattering, 6, es el formado por uA y ua
o, lo que es lo mismo, por v rei y v 'el. 7. Como se ha dicho más de una vez,
7Si A (partícula observada) es la más pesada se puede ver que para cada 0 hay dos posibles
0 correspondientes a dos velocidades diferentes, o sea A rápida y A lenta [3].

293
Índice
Capítulo 5

Figura 3: Como Fig. 2, pero destacando la simetría azimutal en tom o a la


velocidad relativa. Ver texto.

en ausencia de polarización de los reactivos sólo 6 es un ángulo relevante.


En otras palabras, cualquier rotación azimutal de u'A (o v 'el) en tom o a ua
(o v rei) es equivalente y, por tanto, igualmente probable la detección de A en
cualquier dirección de la superficie cónica (Fig. 3). La detección de productos
sólo en el plano formado por los dos haces de los reactivos (el plano va-vb c)
es suficiente, bastando en la integración a todo el ángulo sólido en ec. (3), p.
ej., con integrar uniformemente a todo el ángulo azimutal, ó, es decir con usar
(en LAB) dfi = 2ir sin@ d 0 como elemento de ángulo sólido. Esto es válido
para todo tipo de scattering y no limitado al elástico y es una conclusión que
ya se había adelantado.
En realidad, la colisión elástica, el tipo más sencillo de scattering puede se­
guir demostrando su utilidad para colisiones no elásticas. Así, si el proce­
so es inelástico, en la etapa 3. del esquema anterior el radio del círculo se
calcula usando v'el de ec. (21) y partiendo su longitud en u'A y UgC según
niAU^ = niBouJ!(:. El proceso reactivo, por otra parte, se complica un poco
debido a las diferentes masas en reactivos y en productos. El radio del círculo
de la etapa 3. se calcula con v 'el de ec. (22), pero, lógicamente, su reparto se
refiere a u'c y uAB y la ley de la palanca en este caso es mcu'c = —mABu'AB.

294
Índice
Capítulo 5

Un ejemplo reactivo, la reacción K+HBr—>KBr+H, siendo KBr la especie ob­


servada (¡ en principio, mucho más fácil de detectar que H !) 8 se ilustra en la
Fig. 4.

Figura 4: Diagrama de N ewton para K+HBr—»KBrív^j'^OJ+H con detección


de KBr. Más detalles en texto.

Concretamente, el círculo dibujado representa el caso en que toda la energía


disponible se invierte en traslación, o sea que KBr se produce "frío", es decir
en (v^j'^O). Las direcciones tangentes a este llamado "círculo superelástico"
que parten del origen definen los valores extremos de 0 dentro de cuyo inter­
valo puede producirse KBr "frío". Si el producto fuera KBr "caliente" (v' >0
y / o ]' >0), menos energía iría a traslación y el círculo sería aún más pequeño.
En general, cuanto más "calientes" se producen las moléculas más estrecho
es el intervalo angular de observación, en torno siempre a la dirección del
centroide. Moléculas "frías" pueden observarse (¡ y deben observarse si se
quiere recoger toda la reactividad !) en un más amplio intervalo angular.
Como se ve, la observación en LAB se limita a un intervalo más o menos
estrecho en torno a la dirección del centroide. Toda esta información es cuali­
8En los experimentos "históricos" de los años 60 de la llamada "era alcalina" de la técnica
de haces moleculares [5]; pero desde hace pocos años ha surgido con fuerza las espectrosco­
pias a-Lym an y H-Rydberg para detectar muy precisamente átomos de H [14].

295
Índice
Capítulo 5

tativamente predecible dada la energética y la cinemática del proceso; cuánto


se produce en función del ángulo de scattering depende de la dinámica y sólo
el experimento puede darlo o el cálculo predecirlo. Esto nos introduce en el
siguiente apartado.

5.5 Métodos teóricos en DQ.


5.5.1 Métodos cuánticos.
Una vez separado el movimiento (uniforme) del centro de masas [2, 12] la
ecuación total de Schrödinger independiente del tiempo de un sistema ató-
mico-molecular se desacopla haciendo un tratamiento diferenciado de los
movimientos de los núcleos y de los electrones: es la aproximación de Born-
Oppenheimer [15] cuya base física es la gran diferencia de masa entre el elec­
trón y los núcleos, esta última tres órdenes de magnitud mayor. La notable
diferencia de masa origina que (salvo a energías de colisión m uy elevadas)
los electrones se muevan mucho más rápidamente que los núcleos y, por tan­
to, es posible suponer que los electrones se adaptan instantáneamente a cada
nueva configuración nuclear mientras ocurre la colisión. Esta suposición per­
mite separar el hamiltoniano total en la suma de uno referido al movimiento
electrónico y otro referido al movimiento nuclear que resultan, así, en efecto,
desacoplados.
El resultado es que la ecuación total de Schrödinger se desdobla en una
ecuación electrónica y una ecuación nuclear. La primera es

H e i$ e i,n ( M ; { R } ) = £ el,n ( { « } ) $ el,n ( M ; { R } ) n = 0,1,2,... (5 .2 3 )

La solución de esta ecuación es la tarea central del cálculo de estructura elec­


trónica. Nótese como las funciones de onda electrónicas dependen explícita­
mente de las coordenadas electrónicas, pero paramétricamente de las coorde­
nadas nucleares: es sabido que el cálculo ab initio de la ec. 5.23 se hace para
cada geometría nuclear (dada por { R } ) fija.
Si a las energías electrónicas del sistema, dependientes de la configuración
nuclear del sistema, jBeijn ({Ä }), se suma la repulsión internuclear total para
esa misma geometría, el resultado son las superficies de energía potencial (PES),
Vn/ que tienen un papel relevante en la ecuación nuclear de Schrödinger y,
por tanto, en la DQ. 9En efecto, la ecuación nuclear de Schrödinger resultante
9La malla discreta de puntos, ab initio ha de modelarse por ajuste a una forma funcional
analítica sensata, todo un capítulo laboriosísimo de la DQ. Consultar [16] para una introduc­
ción.

296
Índice
Capítulo 5

del desacoplamiento de de la ecuación total es:

f n( { R } ) + F n ({Ä})] * n ( { ß } ) = E<S>n( { R } ) (5-24)

donde E representa la energía total del sistema. Es en esta ecuación donde se


reconoce que Vn juega, de hecho, el papel de (superficie de) energía potencial
para la dinámica de los núcleos.
Las superficies de energía potencial, Vn, derivadas de la aproximación de
Born-Oppenheimer se llaman superficies adiabáticas o de Born-Oppenheimer.
En todo este capítulo estamos suponiendo implícitamente que la reacción
ocurre sobre una única superficie, la PES fundamental, la que correlaciona
siempre con mínima energía electrónica reactivos y productos en sus respec­
tivos estados electrónicos fundamentales. Esto es una aproximación razona­
ble en muchos casos, especialmente a baja energía. Sin embargo, transiciones
no adiabáticas son m uy frecuentes e importantes en el ámbito de la espectros­
copia (transiciones no radiantes) y en DQ ( las más simples, las reacciones
de transferencia de carga) y ocurren de modo preferente en determinadas re­
giones de la PES conocidas como cruces evitados (en sistemas diatómicos) o
intersecciones cónicas (en sistemas poliatómicos) por acoplamiento de super­
ficies adiabáticas. Para revisiones actualizadas de transiciones no adiabáticas
consultar las refs. [17,18].
La ecuación (5.24) es la base de la teoría de dispersión estacionaria, punto
de partida de los métodos independientes del tiempo (TI) de resolución de la
ecuación nuclear de Schrödinger. El tratamiento genera sistemas de ecuacio­
nes diferenciales acopladas de grandes dimensiones y de solución numérica
enormemente complicada. De hecho, el tratamiento mecanocuántico rigu­
roso sólo ha sido posible, hasta el momento, para un número m uy limitado
de reacciones triatómicas simétricas o con átomos m uy ligeros (como Li+FH
[19]). El estado de la cuestión está siendo revisado continuamente. Cf. , p.ej.,
[20].
Existen también los métodos dependientes del tiempo (TD). La estrategia
general de estos métodos consiste en preparar u n paquete de ondas en la zona
asintótica de reactivos y operar repetidamente con el operador hamiltonia-
no sobre la función de onda inicial = 0). Una comparación del
rendimiento de los métodos TI y TD para la reacción Li+FH se ha publicado
recientemente [21].

5.5.2 Método cuasiclásico de trayectorias.


Las dificultades de los métodos "exactos" han motivado, por una parte, el na­
cimiento de una pléyade de teorías cuánticas aproximadas (eufemísticamente

297
Índice
Capítulo 5

llamadas "de dimensionalidad reducida"), pero, sobre todo, justifican la su­


pervivencia del método mecano-clásico con "correcciones" cuánticas llamado
método cuasiclásico de trayectorias (QCT). Consiste éste en tratar el sistema de
núcleos como si fuera un sistema de partículas moviéndose de acuerdo con
las leyes de la Mecánica Clásica en el campo de fuerzas de una PES adiabáti­
ca. Se trata de integrar las ecuaciones del movimiento a lo largo del tiempo
partiendo de la configuración de reactivos dada como un conjunto de coorde­
nadas y momentos de los tres átomos hasta la determinación de las coorde­
nadas y momentos de los átomos en la configuración de productos. Debido a
que la integración de las ecuaciones se efectúa de forma numérica la elección
del sistema de coordenadas que ha de utilizarse no reviste la trascendental
importancia que tiene en el caso cuántico. La solución proporciona la posi­
ción y velocidad de los núcleos en cada instante del proceso reactivo, por lo
que es posible visualizar las trayectorias que siguen las partículas a lo largo
del tiempo. El término cuasiclásico se usa para indicar que antes de la coli­
sión se "prepara" a la molécula en un estado vibrorrotacional correspondien­
te energéticamente a un estado cuántico. Cuando comienza la integración
de las ecuaciones esta restricción cuántica se levanta y la evolución temporal
del sistema se considera gobernada sólo por la Mecánica Clásica. Una vez
alcanzado el estado de productos se hace corresponder el estado energético
vibrorrotacional (continuo) de la molécula producto con el estado cuántico
más cercano.
Las limitaciones del método QCT derivan de sus propios fundamentos: los
sistemas de dimensiones atómicas han de tratarse cuánticamente y, por tanto,
un tratamiento clásico no da cuenta de efectos cuánticos tales como el efec­
to túnel, las interferencias o las resonancias y consiente energías por debajo
de la energía de punto cero. Estas son limitaciones de carácter fundamen­
tal. Además, existe, en principio una limitación de tipo práctico: debido a
que las magnitudes reactivas se determinan a partir de un estudio estadísti­
co, el esfuerzo computacional crece a medida que se desean resultados sobre
magnitudes más detalladas. Este inconveniente es, no obstante, cada vez me­
nos importante con el constante abaratamiento y mejora de prestaciones (en
memoria y velocidad) de los ordenadores (sobre todo, los personales o PCs
que ahora resultan verdaderam ente competitivos frente a estaciones de tra­
bajo y grandes máquinas para cálculos de mediana complejidad). Y, así, en
resumen la capacidad de buenas predicciones de magnitudes detalladas en
comparación con los mejores experimentos [22] y /o cálculos cuánticos exac­
tos, cuando éstos son disponibles [23], demuestra el carácter de "caballo de
batalla" que, aún a comienzos del siglo XXI, sigue señalando al método de

298
Índice
Capítulo 5

trayectorias clásicas.
Entre los varios programas comerciales de QCT distribuidos por el QCPE
(Quantum Chemistry Program Exchange) han sido muy populares los de Muc­
kerman [24] (usado en nuestro grupo en [25, 26]) y Bunker y col. [27] ( que
usamos en [28]), pero en la actualidad se utiliza profusamente Venus, creado
por Hase y col. [29]. La principal diferencia entre ellos radica en los sistemas
de coordenadas utilizados: Venus y el programa de Muckerman definen co­
mo eje Z el eje de la velocidad relativa inicial, vre¿, mientras que el programa
de Bunker usa a tal fin el vector de Jacobi inicial que une los centros de masas
de los reactivos, R. Por otro lado , para una reacción N-atómica, Venus pro­
paga las 2 x 3N ecuaciones de Hamilton, mientras los programas de Bunker
y M uckerman (ver más abajo) eliminan del cálculo el movimiento del centro
de masas del sistema por lo que trabajan con 2 x (3N-3) ecuaciones. Final­
mente, Venus produce directamente un output menos elaborado pero de gran
generalidad (el punto fásico o conjunto de coordenadas y momentos conjuga­
dos del sistema) que implica leer ese fichero resultante mediante programas
creados por el usuario para sus necesidades. Los resultados de los otros pro­
gramas son menos generales. Aquí, la presentación de los fundamentos del
método QCT se va a realizar siguiendo la formulación de Muckerman que
guarda semejanzas con Venus. Más detalles en [26, 30,31].
El hamiltoniano clásico para nuestro sistema reactivo genérico del tipo A
+ BC se expresa en el sistema CM de coordenadas de Jacobi, {Q }, como la
suma de un término de energía potencial, V({Q}), y un término de energía
cinética, T({P}), siendo {P } el conjunto de momentos conjugados [12] a las
coordenadas {Q}:

= h± ( -
H { { Q )' { P ) ) = \ p?
^ + 2 , kBC ' 2M
+ v (n ( { Q } ) , rj ({<?}), O ({<?})) (5-25)

donde
m Bm c m A (m B + m c ) ^ ,,c
MBC = -------;------- t¿A,BC = ------ ----------;------- M = m A + m B + m c (5.26)
mB + me mA + mB + mc
y las coordenadas de Jacobi tienen el siguiente significado: Qi, Q 2, Qz repre­
sentan las coordenadas del átomo C respecto al átomo B, es decir, las com­
ponentes del vector rec/ mientras que Q 4, Qr,. Q& corresponden a las coorde­
nadas del átomo A respecto al centro de masas de la molécula BC, o sea, las
componentes del vector R a -b c -

299
Índice
Capítulo 5

Las coordenadas r\, r2 y 7*3, correspondientes a las distancias internucleares


7*ab / rBC y rAC se relacionan con las coordenadas de Jacobi de la siguiente
forma:

mc
\E
n Qi ^2+3 (5.27)
i=1 mB + rriQ

r2 = (5.28)
2=1

3
mb
r3 =
\
E
2=1 mB + mc
Qi Qi+s (5.29)

que son, por tanto, las formas explícitas de las funciones ({£?}) ('¿ =1,2,3)
en la parte potencial del hamiltoniano.
La evolución tem poral del sistema viene dada por las ecuaciones de Hamil­
ton:
d Qi dH dT
Qi = di W i~ 8 P i
(5.30)

dP dH dV _ ^ f d V \ f d r k\
Pi = EZÍ (\ dfírr k, J) (\ 9 . .,6
di dQi dQ. Q i J)
fin, 1

El estado del sistema en cada instante viene unívocamente determ inado por
la posición y la velocidad de las partículas que lo constituyen. El conocimien­
to de la evolución temporal del punto Pi} en el espacio fásico supone
resolver simultáneamente las doce ecuaciones (5.30) de la siguiente forma:
rt-\-h
Q i (t + h) Q Qidt (5.31)
' ^ + Jt {

rt+ h .
Pi (t + h) — Pi (t ) + J Pidt i = 1,..., 6 (5.32)

donde las derivadas (Qi y Pi) se evalúan usando los últimos miembros de
las ecuaciones (5.30). Los algoritmos utilizados para resolver numéricamen­
te las ecuaciones diferenciales (30) y (31) son los de Runge-Kutta-Gill y de
Adams-Moulton [32, 33]. La elección de estos métodos se debe a su capaci­
dad para mantener el error de integración muy pequeño a lo largo de toda la
trayectoria. A cambio, precisan un esfuerzo computacional apreciable.

300
Índice
Capítulo 5

Las ecuaciones de Hamilton (5.30) constituyen un sistema de doce ecuacio­


nes diferenciales de prim er orden. La integración numérica de estas ecua­
ciones (más bien que de las seis ecuaciones diferenciales de segundo orden
a que llevarían las formas de Newton o de Lagrange) es la forma habitual
de afrontar el tratamiento mecanoclásico. El número de ecuaciones de Ha­
milton podría aún reducirse imponiendo la conservación de la energía total
y del momento angular total (tres componentes). Esto reduciría el número
de ecuaciones a ocho, pero la forma de estas ocho ecuaciones resulta excesi­
vamente complicada. Además, de esta manera, se dejan la conservación de
la energía total y del momento angular total como prueba de la calidad de la
integración. La no conservación de alguna de estas dos magnitudes a lo largo
de la integración indica que el paso de integración no es adecuado.
La integración de las ecuaciones diferenciales de Hamilton (5.30) requie­
re establecer las condiciones iniciales del problema que en este caso son los
valores iniciales para las coordenadas y los momentos de los núcleos. Cada
conjunto de condiciones iniciales va a determ inar unívocamente un proceso
de colisión diferente, una trayectoria. Los valores iniciales de las coordena­
das y de los momentos se determinan a partir de los parám etros de colisión,
que caracterizan la geometría inicial del sistema, y de las energías del sistema
distribuidas en diferentes grados de libertad. La energía total del sistema está
en forma de energía traslacional relativa y de energía vibrorrotacional (v, j)
de la molécula diatómica reactiva, además de la energía potencial correspon­
diente a la geometría molecular. Este estado energético corresponde, como se
ha indicado previamente, a un estado cuántico de dicha molécula.
Los parámetros de colisión son los seis añgulos y distancias indicados (sal­
vo £) en la Fig. 5, a saber:

1. Distancia p.
Es la distancia entre el átomo A y el centro de masas de la molécula BC
al inicio de la trayectoria. Es decir, es el m ódulo del vector R de Jacobi.

2. Parámetro de impacto b.
Distancia mínima a la que pasaría el átomo A del centro de masas de la
molécula BC si no variase la dirección de la velocidad inicial (por tanto,
en ausencia de interacción). Coincide con la componente y de R .

3. Angulo 9 y

4. Angulo (f).
Son, respectivamente, el ángulo polar y el ángulo azimutal iniciales del
eje internuclear de la molécula BC, r.

301 Índice
Capítulo 5

Figura 5: Parámetros que definen la geometría inicial de la colisión átomo-


molécula diatómica.

5. Angulo rj.
Indica la orientación del momento angular rotacional inicial de BC, j.
Es el ángulo formado por los vectores j y r x k , donde k es el vector
unitario a lo largo del eje Z, eje paralelo a la velocidad relativa inicial,
"Vreí •

6. Angulo £.
Indica la fase de la vibración de la molécula BC. Su valor es cero en el
punto de retom o clásico interior y ir en el exterior.

Definidos los parámetros geométricos de la colisión, pueden determinarse


los valores iniciales de las coordenadas y de los momentos con las siguientes
expresiones:

302 Índice
Capítulo 5

Q l — r° sin 6 eos (¡) pO = p ° (sin (j) cos _ cos Qcos ^ sin


Q2 = r°sm dsm (j) pO = _ p ° (cosacos r¡ + cos 8 sin (j) sin rf)
Q3 — r ° cos & = P ° sin 6 sin r¡
Q04 = o po = o
Ql = b 4 = 0
Qq —- y j p 2 — b2Pq = MA.BC vrei (5.33)

donde

(P ° ) 2 = ( i ? ) 2 + (P2°) 2 + (P3°) 2 (5-34)

, r° denota la distancia internuclear inicial de la molécula BC, siendo y r_


sus valores máximo (para £ = 7r) y mínimo (para ^ = 0), respectivamente, y
P° es el momento lineal inicial de la molécula BC, que con la elección r° = r±
se puede expresar como

(P °)2 = . (5.35)

ya que solamente tiene la componente del momento angular.
Una vez establecidos los valores iniciales de las coordenadas y de los mo­
mentos se procede a integrar las ecuaciones de Hamilton empleando los al­
goritmos numéricos señalados previamente. La integración se efectúa hasta
que alguna de las distancias internucleares se hace lo suficientemente grande
como para poder considerar que se ha alcanzado una situación asintótica, es
decir, un átomo y una molécula diatómica suficientemente separados para
poder considerar nula la interacción entre ellos. Dependiendo de los valores
finales de las distancias internucleares la trayectoria, que se inicia con la con­
figuración A + BC, puede clasificarse como un proceso inelástico (compren­
diendo el caso elástico, como particular) si las especies finales son también A
+ BC, como un proceso reactivo si se producen AB + C o AC + B, o como un
proceso disociativo si se llega a los 3 átomos separados, A + B + C.
Al finalizar una trayectoria, se obtiene un conjunto de valores para las coor­
denadas y sus momentos conjugados. Conviene recordar que este conjunto
está formado por seis coordenadas (Qi,..,Qe) y sus seis momentos conjugados
(Pi,..,Pe); tres coordenadas y sus tres momentos conjugados indican la posi­
ción y la velocidad del átomo C respecto al átomo B, mientras que las otras

303 Índice
Capítulo 5

tres coordenadas y sus tres momentos conjugados correspondientes propor­


cionan la posición y la velocidad del átomo A con respecto al centro de masas
de la molécula BC. Esta definición de las coordenadas de Jacobi, que es apro­
piada para describir la disposición asintótica de los reactivos A + BC, lo es
también si la trayectoria resulta inelástica, pues, entonces, la configuración
del sistema sigue siendo A + BC. No lo es, en cambio, si los productos son AB
+ C (o AC + B). Es necesario, por tanto, relacionar las coordenadas de Jacobi
para AB + C (o AC + B) con las correspondientes a A + BC. Para el canal AB
+ C esas ecuaciones son:

Q\ = - n Qi - Qi+3 ¿ = 1,2,3 (5.36)


mB + mc
_ m Bm A + m B + m C „ rnA
3 — / i \r , \Q i . Q i+3 (5 .3 7 )
(rriA + + m c) mA +
donde c o n ' se indica que las coordenadas se refieren a un canal de productos
y las Q de los segundos miembros son las que se han propagado según (30).
En esta expresión las coordenadas Q[ ^Q ^Q s indican la posición del átomo A
respecto al átomo B y las coordenadas Qf4,Q fb, Qf6 corresponden a la posición
del átomo C respecto al centro de masas en la molécula AB. Análogamente,
se puede definir la transformación para el canal AC + B.
Los valores de las coordenadas de Jacobi y de sus momentos conjugados
permiten realizar el análisis energético de los productos de la colisión. El
objetivo de este análisis es establecer la energía traslacional relativa entre el
átomo y la molécula producto y las energías vibracional y rotacional de tal
molécula. Unicamente va a ser considerado el caso de una trayectoria reacti­
va del tipo A + BC —>AB + C. Los casos inelástico o reactivo AC + B pueden
deducirse de forma completamente análoga.
La energía traslacional relativa de los productos E'iel puede determinarse
directamente a partir de las componentes del momento lineal del átomo C
con respecto a la molécula AB. Así, se tiene:

E « « ) 2 (5.38)
^C,AB

donde /xc,ab es la masa reducida del átomo C respecto a la molécula AB.


La energía interna de la molécula producto, ¿?jnt(AB), se determina por di­
ferencia con la energía total del proceso. La energía total es una cantidad que
se conserva a lo largo de la trayectoria, por lo que puede escribirse:

Etot — Eie\ + £ jnt(BC) —ADe = E frei + £ jnt(AB) (5.39)

304 Índice
Capítulo 5

siendo —ADe la ergicidad espectroscópica (diferencia entre las energías de


disociación espectroscópicas de BC y de AB). Esta ecuación es (casi) la misma
que (22) con el cambio de notación W —» £ jnt(BC) y W' —>E-mt(A B ) , y usan­
do —ADe en vez de —ADo. Esto último es consecuente con la accesibilidad
mecano-clásica de energías internas por debajo de la energía de punto cero,
u n defecto ya señalado del método QCT.
La partición de la energía interna en sus componentes vibracional y rota­
cional no puede ser exacta debido á la interacción entre ambos movimientos.
Una separación aproximada se lleva a cabo así. La energía rotacional se es­
tima como la diferencia entre el mínimo de la curva efectiva de potencial
(curva genuina + potencial centrífugo) y el mínimo clásico del potencial de la
molécula producto. Así, se tiene:

(5.40)

donde V ( v a b ) y V (r e,AB) representan el valor del potencial diatómico en


la distancia internuclear de la molécula t a r y en la distancia intemuclear
de equilibrio r e,ab- El momento angular rotacional de la molécula final, f ,
se determina como producto vectorial de los vectores distancia internuclear
y su momento conjugado. Así, sus componentes X , Y y Z vienen dadas,
respectivamente, por {Q'2P3 - Q'3Pi), (Q'3P{ - Q'iH) Y (Q i P2 ~ Q'2Pí)- E1
mínimo del potencial efectivo se establece empleando una técnica iterativa de
tipo N ewton-Raphson [33]. La energía vibracional de la molécula producto
se determina por diferencia entre la energía interna y la energía rotacional.
Así, se tiene:
(5.41)
Por otra parte, es consustancial al método QCT asociar las energías vibra­
cional y rotacional de la molécula producto a estados "cuánticos" de dicha
molécula. Así, el número "cuántico" rotacional puede establecerse mediante
la expresión:

(5.42)

mientras que el número "cuántico" vibracional se calcula de la siguiente for­


ma:

305 Índice
Capítulo 5

donde los puntos de retorno r + y r_ del potencial efectivo para la energía


interna E-mt se determinan numéricamente y la integral también se evalúa
numéricamente. Los valores de los números "cuánticos" v' y f que se ob­
tienen no son enteros como correspondería a un cálculo realmente cuántico,
sino que varían de forma continua. Ahora bien, puesto que se está conside­
rando el método cuasiclásico, estos valores continuos se hacen corresponder
a los valores de los números cuánticos enteros más próximos.
El cálculo de una trayectoria se efectúa integrando las ecuaciones de Ha­
milton con unas condiciones iniciales determinadas hasta que se alcanza la
región asintótica final, donde se realiza el análisis energético de los produc­
tos. Ahora bien, la información que proporciona una única trayectoria sobre
las m agnitudes que caracterizan la reactividad de un proceso es m uy escasa,
ya que se refiere a un solo conjunto de las 6 condiciones iniciales. Para deter­
minar la reactividad de un proceso es preciso calcular todas las trayectorias
que correspondan a condiciones iniciales significativas. Sin embargo, como
es imposible conocer a priori tales condiciones iniciales significativas, se in­
tenta seleccionarlas de tal manera que con un número limitado de trayecto­
rias se obtenga un resultado de la reactividad representativo. En resumen, el
método de trayectorias cuasiclásicas es un método estadístico. Seguidamente
se consideran los procedimientos de selección de los parámetros de colisión
y, por tanto, de las condiciones iniciales para obtener una información fiable
sobre la reactividad.
La selección de las distancias p y pf de separación inicial A-BC y final C -
AB, respectivamente, se hace de manera que la interacción entre el átomo y la
molécula sea despreciable. Así, pues, se toma una distancia átomo-molécula
diatómica para la que la energía potencial difiera despreciablemente del valor
asintótico (el potencial diatómico de BC o AB, respectivamente). El valor de
p*, en particular, indica la finalización de la integración de las ecuaciones de
movimiento.
La selección de los 5 restantes parámetros geométricos de la colisión (b, 0,
</), rj, 0 se efectúa siguiendo un método aleatorio. La razón de ello se indica a
continuación. La contribución debida a parámetros de impacto en el intervalo
(6, b + db) a la dispersión de todo tipo en choques A + BC(v,j) a cierta energía
de colisión E tT puede medirse por el elemento de área

da = 2nbdb

Una parte de este scattering es reactivo y viene medido por la probabilidad de


reacción Vr (Etv, v, j)

dar = 27tVr (EtTlv ,j)b d b

306 Índice
Capítulo 5

determinando una reactividad total medida por

ar = 2tt / Vr(Etr,v ,j)b d b


Jo
que, por el teorema del valor medio, puede escribirse

ar (Etl,v ,j) = ir bmax


^ iV r iE t^ v J )) (5.44)

que será la forma QCT de calcular ar(EtTl v ,j).


En las expresiones anteriores, 6max indica un valor del parám etro de impac­
to tal que toda colisión cuyo valor de b cumpla b > 6max no es reactiva. Por
tanto, expresamos la sección eficaz reactiva como el producto de una sección
eficaz de esferas duras ( n b ^ x [2]) y una probabilidad media. En el cálculo de
ésta reside, ahora, el meollo del problema.
La probabilidad de reacción Vr es una función de todos los parámetros de
colisión. Su valor promedio (Vr) se determina considerando todas las posi­
bles colisiones con parámetro de impacto b < 6max y con todos los posibles
valores de los restantes parámetros de colisión. Así:

siendo N = 1/ [(27r)36^iax] la norma y dr = b sin 6 db d6 d</>drj d£ el elemento


de volumen. La función Vr (b, 0, </>, 77, £; E re\, v, j ) es el resultado de la reacción
para una colisión caracterizada por unos valores de los parámetros geomé­
tricos de colisión (6, Q, p, 77, f) y valores fijos de E ve\, v y j. Puesto que el
conjunto de parámetros geométricos y energéticos determina unívocamente
una trayectoria y, por tanto, su resultado, VT es una función booleana que
toma el valor cero si el proceso es inelástico y uno si la colisión es reactiva.
La selección de cada conjunto de 5 valores para los parámetros geométricos
iniciales de cada colisión equivale a seleccionar un punto en el espacio 5D
de tales variables para evaluar numéricamente la integral multidimensional
(5.45). Por tanto, la selección de los valores iniciales va a depender del méto­
do de integración elegido. El método de integración más ampliamente usado
es el método de Monte Cario. Sus ventajas principales radican en que permi­
te calcular rigurosamente el error y en que tiende a converger a medida que
se añaden más puntos en la integración. El método de Monte Cario evalúa
integrales multidimensionales del siguiente tipo:

(5.46)

307 Índice
Capítulo 5

Estas integrales A;-dimensionales se calculan determinando el valor de la fun­


ción multiparámetrica f ( k ) en N puntos k ^ distribuidos unifórmente. La
aproximación al valor de la integral viene dada por:

■■-,*¥) (5.47)
Í=1
En el método de trayectorias, la función / corresponde a la probabilidad
TV y, puesto que sólo puede valer cero o uno, la suma en (5.47) representa
el número de trayectorias reactivas N r del total de trayectorias N calculadas.
Así pues, la sección eficaz de reacción para una energía traslacional E tl y un
estado vibrorrotacional (v, j) de la molécula de reactivos viene dada por:

í t? -\ 1,2 N r(ETe\,v, j)
¿•V’J) = *b™* NiEnljVj ) <5-48>
y la estimación del error por:

A<jr (Erehv ,j) = (5.49)

En cuanto al procedimiento de selección de los valores de los parámetros


geométricos de colisión para evaluar la integral (5.46) se empieza seleccionan­
do un conjunto de cinco números aleatorios k\, k 2,..., k§ entre cero y uno para
después calcular los parámetros de colisión. Estos parámetros se determinan
empleando los cambios de variable utilizados al transformar la integral (5.45)
en la forma (5.46). Estas relaciones son:

b = bmdjXk 0 — cos~l ( 1 —2 ^ ) 4>= 27r/c3 rj = 27T&4 £ = 27rk§ (5.50)

En resumen, el método de trayectorias cuasiclásicas para evaluar la reacti­


vidad de un proceso A + BC para unas condiciones energéticamente dadas
puede dividirse en los siguientes pasos:
1. Seleccionar los números aleatorios (k\, k ^ , fes).

2. Determinar los parámetros geométricos de colisión (ec. 5.50).

3. Establecer los valores iniciales de las coordenadas de Jacobi y de los


momentos
(ec. 5.33).

4. Integrar las ecuaciones de movimiento (ec. 5.30).

308 Índice
Capítulo 5

5. Identificar los productos y determ inar su distribución energética


(ecs. 5.38,5.40,5.41,5.42,5.43).

6. Evaluar las magnitudes que caracterizan la reactividad.

El estudio mecanoclásico de una reacción A + BC permite determinar sus


propiedades dinámicas y cinéticas. Así, es posible determ inar la sección efi­
caz reactiva ar (Eie\,v ,j) (ec. 5.48), una m edida de la reactividad total a la
energía de colisión E ve\ estando la molécula BC inicialmente en el estado vi-
brorrotacional (v , j ). Es asimismo calculable una m agnitud más detallada
que la anterior, la sección eficaz de reacción "de estado a estado". Esta in­
cluye, además, el estado vibrorrotacional (v', j ') de la molécula producto y se
obtiene análogamente a ec. 5.48.
Los resultados del tratamiento clásico de la reactividad permiten obtener
otras propiedades del proceso. Es posible calcular las funciones de reactivi­
dad, que proporcionan la probabilidad de reacción en función de las magni­
tudes y parámetros iniciales de la colisión, y las distribuciones energéticas de
los productos. Unas y otras se suelen presentar en forma de histogramas, es
decir, asignando las trayectorias reactivas a cajas de determinada anchura, en
las que se subdivide la variable independiente de la distribución que se trate.
No obstante, un suavizado considerable se obtiene ajustando las distribucio­
nes histográmicas a un desarrollo en serie de polinomios de Legendre de la
variable adecuada [30, 34].
Dos de las distribuciones más relevantes e informativas son la función opa­
cidad y la distribución angular o (salvo un factor de conversión) DCS. La
función opacidad es la probabilidad de reacción en función del parámetro de
impacto. Usando una distribución histográmica, la estimación de la función
opacidad en cada caja es:

P ,(6 .) = ^ (5-51)

Por otra parte, como se ha destacado desde el prim er momento en este ca­
pítulo, una propiedad que permite obtener mucha información sobre la diná­
mica de una reacción (o sea, sobre la PES) es la distribución angular, es decir
la distribución reactiva de ángulos de dispersión o de scattering. Frecuente­
mente se toma como referencia para la definición de dicho ángulo el vector
velocidad del átomo colisionante (el haz de A en la Fig. 1) y también es fre­
cuente que la especie observada sea la molécula diatómica producto, AB (o
AC, en su caso). Así, el ángulo de scattering sería, precisamente, el formado

309
Índice
Capítulo 5

por los vectores u,\ y u^B en CM. 10 El análisis de la distribución angular


obtenida en el cálculo permite obtener la sección eficaz reactiva diferencial
(la DCS) y, por tanto, comparar con las DCS obtenidas en los experimentos
de haces moleculares cruzados, habida cuenta del jacobiano en la transfor­
mación LAB—>CM. En cada caja del histograma la sección eficaz (parcial) es
proporcional a N r ( 6 i ) sin 9{, siendo N r ( 6i ) el número de trayectorias reactivas
con ángulo de dispersión en el intervalo (0¿, 9 i + A 0) y 6t el valor medio del
ángulo de dispersión en la caja ¿-ésima. Cuando predomina el scattering a
ángulos pequeños se dice que la colisión es "hacia adelante" (forward) o bien
que es una reacción "de despojamiento" (stripping). En cambio, si el scattering
dominante es el de ángulos 9 grandes (hacial80°) se dice que la reacción es
"hacia atrás" (backward) o "de rebote" (rebound). En fin, si el máximo de dis­
persión de la molécula producto ocurre hacia 9 « 90° se habla de scattering
lateral o sidexvays.
Otras propiedades dinámicas interesantes obtenibles de un cálculo QCT
son las varias "funciones excitación" (dependencia de la sección eficaz de
reacción con las energías de colisión, vibracional o rotacional de la molécula
BC de reactivo), el reparto de energía entre los tres tipos de movimiento (T,
V, R) de los productos AB+C y las distribuciones de energía en cada uno de
ellos. La comparación de las propiedades así calculadas con las experimenta­
les es el mejor diagnóstico de la calidad de una superficie de energía potencial
y la mejor guía para su optimización (ver las Referencias).

5.6 Agradecimientos
A DGICYT y DGESIC del MEC por la continuada financiación de nuestra
investigación en DQ. A Javi y Jojo Alvariño por la "dirección artística" de la
parte gráfica. A mi atento lector Antonio Ceballos por su eficaz corrección
del manuscrito.

Bibliografía
[1] Levine, R.D. y R.B. Bernstein (1987): Molecular Reaction Dynamics and
Chemical Reactivity. Oxford University Press.
10Nótese que, como en una pareja colisionante la velocidad relativa es paralela/antiparalela
a la velocidad de la partícula más ligera/pesada, la definición 0 = cos- 1 (v rei.v 'el) solo coin­
cide con la presente si A y AB son más ligeras o más pesadas que BC y C, respectivamente. Si
no, las dos definiciones determinan ángulos suplementarios.

310
Índice
Capítulo 5

[2] Atkins, P. W. (1998): Physical Chemistry, 6-. ed., Oxford University Press.

[3] Smith, I.W.M. (1980):Kinetics and Dynamics of Elementary Gas Reactions,


Butterworths.

[4] Steinfeld, J.I, J.S. Francisco y W.L. Hase (1999):Chemical Kinetics and Dy­
namics, 2-. ed., Prentice Hall.

[5] Lee, Y.T. (1987): Chem.Scr., 27, 215 ; Polanyi, J.C. (1987): ibid., 27, 229 ;
Herschbach, D.R. (1987): ibid, 27, 327.

[6] Scoles, G. Ed.(1988): Atomic and Molecular Beam Methods., Oxford Uni­
versity P ress.

[7] Ureña, A.G. y J.M. Alvariño (1994): An. Quim., 90,251.

[8] Shafer-Ray, N . E . , A.J. Orr-Ewing y R.N. Zare (1995):/. Phys. Chem., 99,
7591.

[9] Alvariño, J.M. (1989): en Modelos teóricos e informáticos en la Química ac­


tual, Fundación Ramón Areces, Madrid, cap. 7.

[10] Truhlar, D.G. (1978): J. Chem. Educ., 55, 309.

[11] Pack, R.T. y G.A.Parker (1987): J.Chem.Phys., 87, 3888.

[12] Rañada, A. (1990): Dinámica clásica, Alianza Editorial, Madrid.

[13] Alvariño, J.M., J. Veguillas y S. Velasco (1989): J. Chem. Educ., 66,139.

[14] Ashfold, M. N. R., D. H. Mordaunt y S.H.S. Wilson (1996): Adv. Photo-


chem. 21,217.

[15] Born, M y J.R. Oppenheimer (1927): Ann. Physik, 84,457.

[16] Ochoa de Aspuru, G. y M.L. Hernández (2000):en Molecular and Reac­


tion Dynamics, A. Lagaña y A. Riganelli, Eds., Springer (Lecture Notes
in Chemistry), p. 207; cf. también h ttp ://w w w 3.u sal.es/d in m ol (enlace
schoolPG).

[17] Butler, L.J. (1998): Annu.Rev. Phys. Chem., 49,125.

[18] Yarkony, D.R. (1996): J. Phys. Chem., 100,18612.

311
Índice
Capítulo 5

[19] Parker, G.A., R.T.Pack, A.Laganá, B.J.Archer, J.D.Kress y Z.Bacic (1989);


en Supercomputer Algorithms for Reactivity, Dynamics and Kinetics of Small
Molecules. A.Laganá Ed., Kluwer, p. 105.

[20] Lagaña, A. (1999): Comp. Phys. Comm., 116,1.

[21] Balint-Kurti, G.G., S.P. Mort, F. Cogtas, A. Lagaña y O. Gervasi (1993):


J. Chem. Phys. 99, 9567.

[22] Martínez, T., M.L. Hernández, J.M. Alvariño, A. Lagaña, F.J. Aoiz, M.
Menéndez y E. Verdasco (2000): Phys. Chem. Chem. Phys. 2,589.

[23] Alagia, M. et al. (1996): Science 273,1519.

[24] Muckerman, J.T. (1973): QCPE 11, 229.

[25] Quintales, L.A.M. (1991): Tesis Doctoral, Universidad de Salamanca.

[26] Ochoa de Aspuru, G. (1996): Tesis Doctoral, Universidad del Pais Vasco.

[27] Chapman, S., D.L.Bunker y A.Gelb (1975): QCPE 11,273 .

[28] Hernández, M.L. (1985): Tesis Doctoral, Universidad del Pais Vasco.

[29] Hase, W.L. et al. (1996): QCPE 16, 671.

[30] Truhlar, D.G. y J.T.Muckerman (1979): en Atom-Molecule Collision Theo­


ry., R. Bernstein Ed., Plenum. Cap. 16.

[31] García, E. (2000):en Molecular and Reaction Dynamics, A. Lagaña y A. Ri-


ganelli, Eds., Springer (Lecture N otes in Chemistry), p.256.

[32] Lapidus, L. y J.H.Seinfeld (1979):Numerical Solutions of Ordinary Differen­


tial Equations. Academic Press.

[33] Preuss, W.H., S.A. Teukolsky, W.T. Vetterling y B.P. Flannery (1992): Nu­
merical Recipes in Fortran., 2-. ed., Cambridge University Press.

[34] Aoiz, F.J., V.J. Herrero y V. Sáez Rábanos (1992):/. Chem. Phys. 97, 7423.

312
Índice
Capítulo 6. Dinámica de las reacciones
químicas II: Teoría del estado de transición
José M. Lluch
Departament de Química, UniversitätAutónoma de Barcelona, 08193 Bellaterra (Barcelona)

Una molécula está formada por un conjunto de núcleos atómicos (cargas


positivas) inmersos en un "mar" de electrones (cargas negativas) que están
deslocalizados alrededor de los núcleos según la correspondiente función de onda
electrónica de la molécula. Las interacciones electrostáticas entre las partículas
cargadas son la causa fundamental de la cohesión de las moléculas. La posición
relativa de los núcleos (la configuración nuclear) y la distribución de los electrones
entre ellos determinan el conjunto de enlaces de la molécula. Por otra parte, las
moléculas no son entidades estáticas, sino que están en movimiento continuo: tienen
3 grados de libertad de traslación, 3 de rotación (sólo dos si la molécula es lineal) y
3n-6 (3/1-5 si la molécula es lineal) de vibración, siendo n el número de núcleos de
la molécula. Durante una reacción química tiene lugar una reorganización de los
enlaces entre los núcleos de la molécula o las moléculas que intervienen, de manera
que algunos se rompen y/o otros se forman. El problema consiste en saber como se
produce esta reorganización de los enlaces químicos y con que velocidad. Por
ejemplo, en el caso de una reacción bimolecular elemental, es decir, de una reacción
en la cual la molécula (o moléculas) del producto (o productos) se forman
directamente como resultado de la colisión entre las dos moléculas de reactivos, tal
como
A + B P (6.1)
la velocidad de la reacción, medida como el número de moléculas de producto que
se forman por unidad de volumen y tiempo,
v = k ( T ) [A p ] (6.2)
es directamente proporcional a la concentración de los dos reactivos y a la constante
de velocidad de la reacción, la cual depende de la temperatura.
La primera descripción de como varía la velocidad de una reacción química
con la temperatura se debe a Arrhenius quien en 1889, basándose en numerosas
medidas experimentales y siguiendo el trabajo previo de van’t Hoff, formuló la
ecuación que lleva su nombre:
k ( T ) = Ae~E°IRT (6.3)
donde A es el factor pre-exponencial y
R d M ( T ) = R T l d M( T )
d(l/T) dT v J

313 Índice
Capítulo 6

es la energía de activación. La ecuación de Arrhenius, probablemente la más


importante de la Cinética Química, es una ecuación macroscópica y estrictamente
experimental, conteniendo una energía de activación que se puede interpretar como
la energía media del par de moléculas A y B en el conjunto de las colisiones reactivas
(las que conducen a la formación de productos) menos la energía media del total de
las colisiones, sean o no reactivas.
La constante de velocidad k(T) es el resultado macroscópico del conjunto de
contribuciones de un número enorme (del orden de 1023) de colisiones de
características muy diferentes. Para entender cuales son los factores que determinan
el valor de k(T) y, por tanto, de la velocidad de una reacción química, hay que entrar
en el campo de la Dinámica de las reacciones químicas, la cual aporta una
descripción microscópica (a nivel molecular) de una reacción química y permite
seguir el curso de cada colisión individual. Este es el objeto del capítulo precedente.
Evidentemente, en teoría, de la información que se obtiene de la Dinámica se podría
calcular cualquier propiedad cinética, como la propia k(T) (a través de la función
opacidad y de las secciones eficaces). Sin embargo, el enorme número de colisiones
que habría que considerar para obtener un valor preciso de la constante de velocidad
hace inviable en la práctica esta posibilidad para reacciones con más de 4 ó 5
núcleos, especialmente si existe una barrera energética, aunque sea pequeña. La
única alternativa posible es la Teoría del Estado de Transición, una aproximación
estadística a la Dinámica, formulada inicialmente en 1935 por Eyring, Evans y
Polanyi. Desde entonces esta teoría ha recibido sucesivas mejoras (por lo cual se ha
complicado progresivamente), de manera que ha llegado a ser probablemente la
teoría más útil y extendida en el campo de la Química, no sólo por su capacidad para
predecir cuantitativamente con una exactitud razonable la velocidad de las reacciones
químicas (con mucha exactitud en el caso de reacciones en fase gas incluyendo hasta
10 - 15 núcleos), sino también porque proporciona un marco de trabajo cualitativo
mediante el cual es posible entender mejor la totalidad de las reacciones químicas.
La Teoría del Estado de Transición, al igual que la ecuación de Arrhenius, da una
expresión de la constante de velocidad (una magnitud macroscópica) pero ahora a
partir de magnitudes moleculares. En este capítulo se exponen sucesivamente la
teoría convencional del estado de transición, la teoría variacional del estado de
transición, y la corrección que hay que introducir para tener en cuenta los efectos
cuánticos en el movimiento a lo largo del camino de reacción.

6.1 Teoría convencional del estado de transición

La teoría del estado de transición presupone que la aproximación de Born-


Oppenheimer es válida, es decir, que los movimientos nuclear y electrónico pueden
separarse por tener lugar en dos escalas de tiempo muy diferentes entre sí. La teoría
convencional está ligada al concepto de estructura del estado de transición de una

314
Índice
Capítulo 6

hipersuperficie de energía potencial resultante de la aproximación de Born-


Oppenheimer. Mclver y Komornicki definen la estructura del estado de transición
como el punto que cumple las siguientes 4 condiciones: a) es un punto estacionario,
es decir, de gradiente cero; b) la matriz de constantes de fuerza en el punto debe tener
un único valor propio negativo; c) debe ser el punto de más alta energía potencial en
una línea continua que conecte reactivos y productos; d) debe ser el punto de menor
energía potencial que cumpla las anteriores 3 condiciones. Debido a las dos primeras
condiciones matemáticas, la estructura del estado de transición recibe también el
nombre de punto silla (de montar). Para estudiar la dinámica de una reacción química
hay que ampliar el concepto de estado de transición. Así, el estado de transición
convencional es realmente una hipersuperficie en el espacio de las configuraciones
nucleares, la llamada superficie de división, que pasa por el punto silla y divide la
hipersuperficie de energía potencial de la reacción en dos partes: la
hemihipersuperficie del lado correspondiente a los reactivos y la hemihipersuperficie
del lado correspondiente a los productos. A partir de aquí se utilizará el término
estado de transición como equivalente a la superficie de división, reservando el
término estructura del estado de transición para designar el punto silla, que no es más
que un punto particular de la superficie de división.

6.1.1 Teoría canónica

La teoría canónica del estado del transición se aplica cuando los reactivos
están en equilibrio térmico a una temperatura T, es decir, cuando las moléculas de
reactivos se distribuyen entre todos los estados posibles según una distribución tipo
Maxwell-Boltzmann. Para deducir la expresión de la constante de velocidad k(T) se
necesitan dos hipótesis, la primera de las cuales recibe el nombre de hipótesis
fundamental:
1) Las supermoléculas que han cruzado el estado de transición en el sentido reactivos
- productos no pueden volver atrás (y formar otra vez los reactivos) y llegan
finalmente a formar los productos. Se entiende por supermolécula el resultado de
considerar como un todo el conjunto de los núcleos y electrones de las moléculas que
intervienen en la reacción.
2) En el estado de transición el movimiento a lo largo del camino de reacción (es
decir, en la dirección que lleva desde los reactivos a los productos) puede ser
separado de los demás movimientos y tratado como una traslación clásica.
Supongamos una reacción bimolecular entre los reactivos A y B. En el punto
silla se construye la superficie de división ortogonal al camino de reacción. Hay que
determinar la concentración de supermoléculas en un pequeño entorno de la
superficie de división. Por ejemplo, consideremos la concentración de *
supermoléculas que en un instante dado tienen configuraciones nucleares que se
sitúan entre dos superficies paralelas a la superficie de división, la primera

315
Índice
Capítulo 6

adelantada una distancia 6/2 a lo largo del camino de reacción respecto a la


superficie de división, y la segunda retrasada 6/2, siendo 6 una distancia muy
pequeña. Esto equivale a considerar una superficie de división con un grosor muy
pequeño 6. En condiciones de equilibrio térmico de los reactivos, dicha
concentración de supermoléculaa en el estado de transición, N *, puede calcularse a
partir de la termodinámica estadística (el signo $ se utiliza para marcar cualquier
variable asociada al estado de transición convencional):
d jy c ~*Eni k j (6.5)

donde Kitot es la constante de equilibrio entre los reactivos y las supermoléculas del
estado de transición, q \ot es la función de partición del estado de transición, qA y qB
son las funciones de partición de los reactivos A y B, respectivamente, V es el
volumen, AE0 es la diferencia entre el nivel de más baja energía del estado de
transición y el nivel de menor energía de los reactivos (es decir, la diferencia entre
los respectivos niveles de energía de punto cero), &Bes la constante de Boltzmann y,
finalmente, las concentraciones de todas las especies que intervienen están dadas en
moléculas por unidad de volumen. El origen de energías de cada función de partición
se sitúa en el nivel más bajo de cada especie, es decir, en su nivel de punto cero.
Si se espera el tiempo suficiente, la reacción alcanza la situación de
equilibrio entre reactivos y productos. En estas condiciones, en un instante dado,
existen dos tipos de moléculas en el estado de transición: las que se mueven en el
sentido reactivos - productos (con una concentración p) y las que mueven en
sentido contrario (con una concentración iV*P„R), de modo que
(.)
66
Evidentemente, en esta situación de equilibrio la velocidad de la reacción directa
debe ser igual a la velocidad de la reacción inversa. Por tanto,
^R-P - ^P-R —-W* / 2 (6.7)
Supongamos que repentinamente se eliminan todos los productos. Si se cumple la
hipótesis fundamental (no recruzamiento de la superficie de división), la ausencia de
los productos no alterará en absoluto el valor de p (no es posible que ninguna
supermolécula que contribuya a A^R_p provenga en realidad de los productos y que
esté contando dentro de A^R_Pdebido a una inversión del sentido de su trayectoria que
provoque un recruzamiento), y todas las supermoléculas que se incluyan en N*R_P
llegarán a formar productos. Por tanto, la velocidad de la reacción directa depende
de iV*R^P, concentración que mantiene el valor que tenía cuando había equilibrio con
los productos (ecuación 6.7). La velocidad de la reacción (medida en moléculas por
unidad de tiempo y unidad de volumen), es decir, la velocidad con la cual las
supermoléculas atraviesan la superficie de división en el sentido adecuado, será

316
Índice
Capítulo 6

dN JV*
-----= R P (6 .8)
d t d t
donde 61 es el tiempo medio que necesitan las supermoléculas para cruzar la
superficie de división, el cual, a su vez, es igual a la anchura 6 dividida por la
velocidad media v con la cual atraviesan el estado de transición:
* = =<5
dt (6.9)
v
Suponiendo que las velocidades sigan una distribución de equilibrio térmico,
¡xs2

/ ve n ‘Tdv i
v =-&
W2

( 2 k BT V
1 (6.10)
JtfÁ
2k n T
e dv
0
donde v es la velocidad de cada supermolécula y [á, es la masa reducida
correspondiente al movimiento a lo largo del camino de reacción.
Si ahora se aplica la segunda hipótesis, la separabilidad de los movimientos
conduce a
qL=q,qi (6-n)
siendo qt la función de partición clásica correspondiente a un movimiento
traslacional unidimensional atravesando el estado de transición de anchura 6, y qt la
función de partición para todos los restantes 3^-lgrados de libertad en el estado de
transición, donde n es el número total de núcleos de la supermolécula. De la
termodinámica estadística se obtiene la expresión de qt :

h
donde h es la constante de Planck.
Combinando la ecuación 6.5 con las ecuaciones 6.7 a 6.12 se obtiene
j l AEo
dN k fíT q &r r T n l
----- = F - 1------ -— e B \ A \ B \ (6.13)
dt h q Aq B 1 1 1
en la cual los parámetros indefinidos 6 y // ya no aparecen pues se han cancelado al
combinar las ecuaciones.
Puesto que la ecuación de velocidad (en moléculas por unidad de tiempo y unidad
de volumen) experimental para una reacción bimolecular es

317
Índice
Capítulo 6

(6.14)

la comparación entre las ecuaciones 6.13 y 6.14 da la constante de velocidad


canónica:

k ( T ) = V kBT qX e (6.15)
h q Aq B
Si el volumen se da en litros, las unidades de esta constante de velocidad canónica
son litro molécula'1 s'1. Si la ecuación 6.15 se multiplica por el número de Avogadro
las unidades son litro mol'1 s'1. Si se trata de una reacción unimolecular (realizada en
condiciones tales que la teoría canónica del estado de transición sea aplicable), la
ecuación 6.15 queda

(6.16)

donde la constante de velocidad viene dada en s'1.

6.1.2. Deducción dinámica de la constante de velocidad canónica

La deducción dinámica de la constante de velocidad, basada en la mecánica


estadística clásica, permite entender mejor el significado de la hipótesis fundamental
y pone de manifiesto que la teoría del estado de transición, al menos en su
formulación original, asume que las supermoléculas se desplazan por la
hipersuperficie de energía potencial siguiendo trayectorias clásicas.
Si las supermoléculas contienen n núcleos su posición en el espacio de fases
viene determinada por 6 n variables (3 coordenadas y sus 3 momentos conjugados
para cada núcleo). Un elemento de volumen del espacio de fases cuya configuración
nuclear pertenezca a la superficie de división se define mediante el producto de los
6 n diferenciales de las variables:

dr = dq\ • • • dq¡ndp¡ • • • dp¡B (6.17)


Por otra parte, según la mecánica estadística clásica, el número de estados por grado
de libertad con coordenada q y momento conjugado p es

de modo que, para un grado de libertad, el volumen del espacio de fases asociado a
un único estado es h. Asumiendo que los reactivos están en equilibrio térmico, la
relación entre el número de supermoléculas que hay en dos regiones diferentes del
espacio de fases viene dada por el cociente entre la probabilidad de ocupación del

318
Índice
Capítulo 6

conjunto de estados de cada región. Teniendo en cuenta que no todos los estados son
igualmente probables, no es suficiente con contar el número de estados que hay en
cada región, sino que hay que introducir el factor peso
H

e keT (6.19)
donde H , que depende de las coordenadas y momentos, es la función Hamiltoniana
clásica de la supermolécula (es decir, la energía total). Evidentemente, todos los
estados de un mismo diferencial de volumen tienen igual valor de H. De este modo,
el cociente entre el número de supermoléculas (dN*) que están en el diferencial de
volumen de la ecuación 6.17 ligado a la superficie de división, y el número de
supermoléculas (N) que pueden calificarse como reactivos da
H

dN ’ e k“T dq¡ • • • dq\ndp\ • • • dp¡n I h 3n


- j¡ - =— x . ------------------------------------------- (6-20)
£ e keT dq j • • • d qu dpx • • • dp3n / h 3n

donde la integral del denominador se extiende a la región del espacio de fases


asociada a los reactivos antes de iniciar la reacción y no es más que la función de
partición de los reactivos. Si de nuevo consideramos una reacción bimolecular, el
número de supermoléculas que pueden formar (cuando aún no interaccionan) NÁ
moléculas del reactivo A y NB moléculas del reactivo B es N = NANB, y la función de
partición de los reactivos se factoriza como producto de las funciones de partición
del reactivo A y del reactivo B : qAqB. Por tanto, queda

d N * = V 2[ A l B Y 1,7d q * ’ ’ ’ d q ' - i p l ' ’ ’ d p '> 1 ^ (6.21)

Aplicando la hipótesis fundamental (no recruzamiento), la contribución de las


supermoléculas dN* a la velocidad de la reacción es (suponiendo que el grado de
libertad correspondiente al camino de reacción en la superficie de división es el 1 ):
H

d N * - V 2\ A l B ] d q ' e klTd(l * ' " d<I*ndP * ' " dP * n l h3n (622)


dt 1 1 j dt q Aq B

siempre y cuando

4^- = — > 0 (6.23)


dt
donde //, es la masa reducida correspondiente al movimiento a lo largo del camino

319
Índice
Capítulo 6

de reacción, y definiendo como positivo el momento de la supermolécula que


atraviesa la superficie de división en el sentido reactivos - productos. Es decir,
cuentan todas las contribuciones con p \ >0 y sólo éstas. En realidad, para decidir si

cuando una supermolécula cruza la superficie de división con p \ >0 contribuye o no


a la velocidad de la reacción habría que seguir con dinámica molecular cada
trayectoria, a partir del punto del espacio de fases asociado a la superficie de
división, hacia atrás (para ver de donde viene la trayectoria) y hacia adelante en el
tiempo (para ver hacia donde va la trayectoria). Sólo las trayectorias que vienen de
reactivos y llegan a productos contribuyen realmente a la velocidad de la reacción.
Sin embargo, el seguimiento explícito de cada trayectoria constituiría un auténtico
cálculo dinámico, lo que precisamente evita la teoría del estado de transición al
asumir la hipótesis fundamental. De este modo la teoría del estado de transición hace
posible el cálculo de la constante de velocidad, aunque al precio de contar como
reactivas más trayectorias de las que realmente lo son. De este modo, la hipótesis
fundamental exagera el valor de la constante de velocidad (esto no quiere decir que
las constantes de velocidad calculadas mediante la teoría convencional del estado de
transición necesariamente tengan que ser más grandes que las experimentales, ya que
existen otras fuentes de error que pueden ir en sentido contrario, como errores en el
cálculo de las magnitudes de las que dependen las funciones de partición o una
infravaloración del efecto túnel).
Para obtener la velocidad de la reacción hay que integrar sobre todos los
elementos de volumen del espacio de fases con configuraciones nucleares
pertenecientes a la superficie de división. Es decir, hay que sumar todas las
contribuciones como la de la ecuación 6 . 2 2 teniendo en cuenta la condición dada en
la ecuación 6.23. Para realizar la integración se descompone la Hamiltoniana en una
parte (E*) correspondiente al movimiento en la dirección del camino de reacción
(una traslación clásica según la segunda hipótesis) y otra (H?) asociada a todos los
demás 3n-l grados de libertad ortogonales al camino de reacción:
(6.24)
siendo

Ef = (6.25)

Introduciendo las ecuaciones 6.23 a 6.25 en 6.22, integrando y separando variables,


se obtiene la velocidad de la reacción

320
Índice
Capítulo 6

(4 H'

dN _ iü A iy /o p' e 2 dp%i f e keT dq%i *** * * * dp**


dt Qa Qb ^
(6.26)
Realizando la integración sobre p \ y cambiando el origen de energías de los grados
de libertad ortogonales al camino de reacción mediante
H '= H " + A E 0 (6.27)
se llega a
H"
kB? A„% A „ t Ar.%
dN_ = V 2\ A ] B ] kBT f g dqj •«» dq\ndp\
. . .
- >• dArsX
.
pj
. . A £

~dt q AqB h h 3n-1


La integral que queda en la ecuación 6.28 dividida por h3n~l es precisamente la
función de partición de la supermolécula en el estado de transición, tomando como
origen de energía el nivel de punto cero de la estructura del estado de transición y
excluyendo el grado de libertad correspondiente al camino de reacción. Por tanto, se
trata de la función de partición </que aparece por primera vez en la ecuación 6 .1 1 .
Recordando que durante la deducción dinámica N no representa la
concentración sino el número de supermoléculas que atraviesan la superficie de
división, se llega a la constante de velocidad canónica:

k(T ) = — _____L * * L = y k B T 4* ~t ¡ t (6 2 9 )
k(T> [A\B]V d, h qiq, e (6'29)
que es precisamente la misma expresión que ya se obtuvo en el apartado 6 . 1 . 1 para
una reacción bimolecular.

6.1.3 Formulación termodinámica

La expresión de la constante de velocidad canónica puede reformularse de


modo que contenga magnitudes aparentemente más familiares para el químico
experimental: magnitudes que dentro del campo de la cinética son las análogas a las
variables termodinámicas macroscópicas. Se trata de la formulación termodinámica
de la teoría del estado de transición canónica.
La ecuación 6.15 para una reacción bimolecular cuando la constante de
velocidad se da en litro mol'1 s'1 debe incluir el número de Avogadro (L):

321
Índice
Capítulo 6

k(T) = L V keT q t e k‘T (6.30)


h q Aq B
y puede ser escrita como

k {T) = ih L K x (6.31)
V ’ h
donde
AF

K \ = LV - 2 — (6.32)
Qa Qb
es una pseudoconstante de equilibrio entre los reactivos y las supermoléculas del
estado de transición en las que se ha eliminado el grado de libertad correspondiente
al camino de reacción (sólo tienen 3^-lgrados de libertad: 3 de traslación, 3 de
rotación y 3n-7 correspondientes a los grados de libertad de la superficie de división
si la estructura del estado de transición no es lineal). La ausencia de este grado de
libertad es lo que hace que no pueda hablarse de una auténtica constante de
equilibrio.
A partir de K y utilizando expresiones análogas a las termodinámicas se
obtienen una serie de magnitudes pseudotermodinámicas como la energía de Gibbs
estándar de activación
(6.33)

donde Kr es el cociente de las concentraciones de los estados estándar de las especies


en pseudoequilibrio, es decir, (c2) 1 para una reacción bimolecular (donde c~ es la
concentración estándar) pero 1 para una reacción unimolecular. La entalpia estándar
de activación (para gases) se obtiene mediante una ecuación análoga a la ecuación
termodinámica de van’t Hoff:

(6.34)
dT
donde K~ es el cociente de las presiones de los estados estándar de las especies en
pseudoequilibrio y K *es la pseudoconstante de equilibrio en la escala de presiones
entre los reactivos y las supermoléculas del estado de transición en las que se ha
eliminado el grado de libertad correspondiente al camino de reacción, con
(suponiendo gases ideales)
(6.35)
para una reacción bimolecular y

322
Índice
Capítulo 6

K¡=K> (6.36)
para una reacción unimolecular. Finalmente, la entropía estándar de activación se
obtiene a partir de las anteriores magnitudes pseudotermodinámicas:

A S t o = -------- ^ .... ..... (6.37)

Despejando K* de la ecuación 6.33 e introduciéndola en la ecuación 6.31,


utilizando además la ecuación 6.37 se obtiene la constante de velocidad canónica en
función de magnitudes pseudotermodinámicas:
, rr A G * ° j rp AH
AS * °
kpT --r^r- k„T
k(T) = b± _ k ° e RT = H ^ K o e R e RT (6 3 8 )
h h
Esta ecuación es válida tanto para reacciones bimoleculares como para
unimoleculares (en condiciones tales que la teoría del estado de transición sea
aplicable a estas últimas). Hay que resaltar que para obtener constantes de velocidad
en unidades de litro mol'1 s'1 para reacciones bimoleculares, el estado estándar en
cinética, tanto en fase gas como en disolución, es 1 mol litro'1. Así, las magnitudes
AGÍQ, ÜHtQy ASÍQson las diferencias entre 1 mol de supermoléculas en el estado de
transición (habiendo excluido la contribución del grado de libertad a lo largo del
camino de reacción) y 1 mol de moléculas de cada reactivo, con todas las especies
en el estado estándar.
La ecuación 6.38 permite la aplicación cualitativa de la teoría del estado de
transición a una muy amplia diversidad de fenómenos químicos, a la vez que, si se
tienen valores experimentales de la k en un rango de temperaturas, pueden obtenerse
los valores experimentales de AGÍQ, AH tQy AS*2 mediante un tratamiento adecuado
de los datos. Sin embargo se han cometido muchos errores al utilizar de forma
inadecuada la ecuación 6.38 para determinar las magnitudes pseudotermodinámicas.
En primer lugar, hay muchas reacciones cuya cinética no sigue la ecuación 6.38,
bien, como se verá posteriormente, por la aparición de efectos variacionales o por
la existencia del efecto túnel. En segundo lugar, incluso si la k(T) cumple la ecuación
6.38, se han hecho muchas correlaciones experimentales que olvidan que AGtQ, AHtQ
y ASÍS dependen de la temperatura, por lo que los resultados que se obtienen son a
menudo erróneos, en mayor o menor grado. La forma correcta, que desgraciadamente
no se utiliza casi nunca, para calcular los valores de AGtQ(T), AHtQ(T) y AStQ(T) a
partir de datos experimentales de k(T), asumiendo que se cumple la ecuación 6.38,
es la siguiente: AGtQ(T) se obtiene directamente mediante la primera igualdad de la
ecuación 6.38; para AHtQ(T), por ejemplo para reacciones bimoleculares en fase gas,
hay que utilizar la expresión

323
Índice
Capítulo 6

d ( a g ío / t )
A H t o = - T 2 - ^ - ---------- l -RT (6.39)
dT
que se deduce combinando las ecuaciones 6.33 a 6.35; finalmente, AStQ(T) se calcula
mediante la ecuación 6.37 (aunque hay que decir que la dependencia de AStQcon la
temperatura suele ser muy pequeña).
Por otra parte hay que tener en cuenta que los cálculos teóricos permiten
obtener la constante de velocidad canónica a partir de magnitudes moleculares y, por
tanto, utilizan directamente la ecuación 6.30 y no la 6.38. De hecho, AGÍ2(7),
AHtQ(T) y ASÍ2 (7) pueden calcularse teóricamente, pero sólo a partir precisamente
de las funciones de partición que aparecen en la ecuación 6.30.
El problema del estado estándar es una fuente de error muy común cuando
se utiliza la formulación termodinámica para calcular teóricamente las constantes de
velocidad en fase gas. En termodinámica el estado estándar a temperatura T se elige
como aquel en el que p- - 1 bar y el gas se comporta como un gas ideal ( 1 bar = 1 0 5
Pa = 0,986923 atm = 750,062 torr). En cambio, como ya se ha mencionado más
arriba, en cinética el estado estándar, tanto para gases como para disoluciones, es 1
mol litro 1. Las entalpias de los gases ideales sólo dependen de la T, por lo que
A //Í2(7) es la misma tanto si el estado estándar es p Q= 1 bar como si es c~ = 1 mol
litro'1. Sin embargo la contribución traslacional de la entropía depende del volumen,
ya que contiene un término aditivo que para 1 mol e s R ln V .S i el estado estándar
es 1 mol litro '1 el volumen que corresponde a 1 mol es precisamente V = 1 litro, con
lo cual R ln V es cero. Pero si el estado estándar fuera p- = 1 atm, para un mol
(asumiendo comportamiento de gas ideal)
D T
R l n V = R \ h ----- (6.40)
P
lo que daría un valor de, por ejemplo, 6,35 cal mol'1 K'1 a 298,15 K. Un programa
como GAUSSIAN calcula los valores de GQtermodinámicos de los reactivos y los
GtQ pseudotermodinámicos de los estados de transición tomando como estado
estándar p- = 1 atm (esta es también la opción implícita en GAUSSIAN98, aunque
en esta última versión se puede entrar un valor distinto de la presión). Si para una
reacción unimolecular en fase gas se calcula AGtQcomo diferencia de los valores de
la energía de Gibbs correspondientes al estado de transición y al reactivo, se comete
el mismo error (un exceso de entropía de 6,35 cal mol'1 K' 1 a 298,15 K) en el
minuendo y en el sustraendo, por lo que el error global es nulo. Sin embargo, para
una reacción bimolecular en fase gas este procedimiento da un exceso de entropía de
6,35 cal mol"1 K '1 a 298,15 K al conjunto de los dos reactivos en comparación con el
estado de transición, lo que eleva AGtQ 1,89 kcal mol'1 por encima del valor correcto
a 298,15 K.

324
Índice
Capítulo 6

6.1.4 Cálculo de la energía de activación

La energía de activación, Ea^ se calcula, una vez conocida la constante de


velocidad canónica en función de la temperatura, según la ecuación 6.4, y es
independiente de cualquier teoría microscópica sobre la velocidad de las reacciones
químicas. Es un error conceptual (y muchas veces, además, numérico) muy grave
confundir la energía de activación con cualquiera de las magnitudes que están
directamente ligadas al concepto de superficie de energía potencial y cuya relación
con la constante de velocidad es consecuencia de la validez de la teoría del estado de
transición. En particular no hay que confundirla con la diferencia de energías
electrónicas entre la estructura del estado de transición y los mínimos asociados a los
reactivos, ni con la correspondiente diferencia entre los niveles de punto cero (AZs0),
ni con la barrera de energía estándar de la reacción (A£*-), la cual, por ejemplo para
una reacción bimolecular en fase gas (asumiendo un comportamiento de gas ideal)
está relacionada con la entalpia estándar de activación mediante la expresión
A H to = A E to- R T * (6.41)
Sin embargo, para reacciones químicas cuya cinética obedece la ecuación 6.38 (por
tanto, sin efectos variacionales ni efecto túnel) existen unas relaciones numéricas
sencillas entre las variables de la ecuación de Arrhenius 6.3 y las magnitudes
pseudotermodinámicas. Estas relaciones seobtienen aveceserróneamente
sustituyendo la ecuación 6.38 en laecuación 6.4,ignorando de esta forma la
dependencia con la temperatura de AHtQ y AS*2. En vez de esto, combinando la
ecuación 6.34 con las ecuaciones 6.35 y 6.31 se llega a la siguiente relación numérica
para una reacción bimolecular en fase gas:
AH to = E a - 2 R T (6.42)
Repitiendo el proceso con las ecuaciones 6.34, 6.36 y 6.31 se obtiene la
correspondiente relación para una reacción unimolecular en fase gas:
AH io= E a -R T (6.43)
Para una reacción en disolución la ecuación que sustituye a la 6.34 es
k *( k ° y
AH X° ~ R T 2 ------- „ (6-44,

Combinando ahora las ecuaciones 6.44 y 6.31 se obtiene la siguiente relación para
una reacción en disolución (al menos para una reacción no iónica),
independientemente de su molecularidad:
m to~ E a - R T (6.45)
Sustituyendo cualquiera de las ecuaciones 6.42, 6.43 o 6.45 en la segunda
igualdad de la ecuación 6.38 y comparando con la ecuación de Arrhenius 6.3 se

325
Índice
Capítulo 6

puede relacionar el factor pre-exponencial A con la entropía estándar de activación


ASís:

A = - ^ — K ° e me R (6.46)
h
donde el exponente m es igual al valor numérico que multiplica a (-RT) en las
correspondientes ecuaciones 6.42, 6.43 o 6.45. Es decir, para reacciones en fase gas
m es igual a la molecularidad de la reacción (m = 1 para unimoleculares, m = 2 para
bimoleculares), mientras que para reacciones en disolución m = 1
independientemente de la molecularidad. La ecuación 6.46 muestra que A será
pequeño para reacciones con AStQ claramente negativo. Este es el caso de las
reacciones bimoleculares en las que en la evolución desde dos moléculas separadas
de reactivos hacia el estado de transición se pierde entropía, puesto que se pierden
grados de libertad traslacionales y rotacionales que se transforman en vibracionales,
cuyo espaciado energético es bastante mayor. En consecuencia, los factores pre-
exponenciales de las reacciones bimoleculares acostumbran a ser numéricamente
varios órdenes de magnitud menores que los de las reacciones unimoleculares.

6.1.5 Teoría microcanónica

En la situación de equilibrio térmico, en la cual es aplicable la teoría


canónica, la distribución de Maxwell-Boltzmann da una población diferente a los
estados de energía distinta, pero asume igual probabilidad para los estados de la
misma energía. Si sólo un nivel energético es posible, la correspondiente noción de
equilibrio estadístico establece que todos los estados son igualmente probables. La
teoría microcanónica del estado de transición se aplica a reacciones para las que la
energía total de los reactivos es H = E, una cantidad fija. De este modo se obtiene la
constante de velocidad microcanónica k(E). Por otra parte la teoría microcanónica
asume tanto la hipótesis fundamental como la separabilidad del movimiento a lo
largo del camino de reacción.
Para deducir la expresión de la constante de velocidad k(E) vamos a utilizar
otra vez el lenguaje de la mecánica estadística clásica, como en el apartado 6 . 1 .2 .
Antes de empezar hay que introducir algunos conceptos previos. Para una
supermolécula con n núcleos en el espacio de fases la suma clásica de estados
g (e ) ‘‘i r - d h M - ' t p , , (647)

es el número total de estados que pueden existir con todas las combinaciones
posibles de coordenadas q¿ y momentos conjugados pero con la restricción de que
la energía total H esté comprendida entre 0 y E. Se trata de un simple cuenteo de
estados, no de una probabilidad por lo cual no hay que introducir el factor peso de

326
Índice
Capítulo 6

la ecuación 6.19.
La derivada de G(E) es la densidad de estados N(E):

N (E ) _ d G (E ) _ C d<h " ' dcl3ndP l ' " dP3n (6.48)


y ’ dE J h =e h3n
El número de estados con H entre E y E + dE es N(E)dE,una magnitud en el espectro
continuo análoga a la degeneración cuántica en el espectro discreto.
Consideremos una reacción bimolecular con energía total H = E. Todas las
supermoléculas, independientemente del punto del espacio de fases en el que se
encuentren, tendrán la misma energía E. En este caso, la relación entre el número de
supermoléculas que hay en dos regiones diferentes del espacio de fases viene dada
por el cociente entre el número de estados de cada región, ya que todos son
igualmente probables. Las supermoléculas que estén en la superficie de división
tendrán una coordenada qí(suponiendo de nuevo que el grado de libertad
correspondiente al camino de reacción en la superficie de división es el 1 ) entre q *
y q* + dq*y y habrán destinado una energía AE0 del total E para alcanzar desde
reactivos el nivel de energía más bajo de la superficie de división (naturalmente E
> AE0). El resto de la energía se repartirá entre la energía traslacional en la dirección
del camino de reacción (E*) y la energía por encima del punto cero correspondiente
a los 3n-l grados de libertad ortogonales al camino de reacción (E - E * - AE0). En
estas condiciones, el cociente entre el número de supermoléculas que están en la
superficie de división (es decir, con q1 entre q* y q* + dq*) y además con el
momento conjugado p 1entre p * y p * + dp*, y el número de supermoléculas (N) que
pueden clasificarse como reactivos da

de reacción (con energía E*), la integral del numerador es la densidad de estados


(con energía E-E*-AE0) para los 3n-l grados de libertad ortogonales al camino de
reacción, y la integral del denominador se extiende a la región del espacio de fases
asociada a los reactivos antes de iniciar la reacción y no es más que la densidad de
estados de los reactivos con energía E, es decir, N(E).
En el caso canónico la escasez de supermoléculas en la superficie de división
es debida en gran parte a la baja probabilidad que tienen los reactivos en equilibrio
térmico de alcanzar la energía necesaria para llegar al estado de transición.
Naturalmente esto no es un problema en el caso microcanónico, puesto que todas las
supermoléculas (sean reactivos o estén en el estado de transición) tienen la misma

327
Índice
Capítulo 6

energía total E. El problema ahora es que los reactivos pueden distribuir dicha
energía E de cualquier modo entre sus grados de libertad y en cambio las
supermoléculas en el estado de transición tienen la restricción de que una parte AE0
de la energía total E ya no está disponible por el simple hecho de haber alcanzado la
superficie de división, lo cual disminuye el número de estados posibles (sólo cuentan
los estados compatibles con dicha restricción) y, por tanto, reduce el cociente de la
ecuación 6.49.
Derivando la ecuación 6.49 respecto al tiempo, utilizando la igualdad de la
ecuación 6.23, y N ^N ANB(idl como se describe antes de la ecuación 6.21), queda

tiH—thP—¡hFij —A/s q d q l ' " d <l¡ndp l , " d p i n


dt 1 1 Á \ i rh

(6.50)
Aplicando la hipótesis fundamental, todas las supermoléculas en la superficie de
división con p * > 0 contribuyen a la velocidad de la reacción. No se puede integrar
sobre d p * entre 0 e porque la energía traslacional E * está limitada. Por ello,
diferenciando la ecuación 6.25,
nt
dE¡ = — dp\ (6.51)

y sustituyendo en la ecuación 6.50 se puede integrar sobre d E * entre el valor mínimo
( E * = 0, no hay energía traslacional) y el valor máximo ( E * = E - A E 0 , no queda
energía para los 3n-l grados de libertad ortogonales al camino de reacción) para
obtener la velocidad de la reacción:

dN _ V J[ A p > ] j í • • • ‘‘¿ ‘‘' i dEf

dt hN (E )

(6.52)
con lo que se llega a
H = E -A E 0

dN _ V 2 [ a J b ] Í h -0 d % l ' ' d %\ n d P l ' ' á P\ n


(6.53)
~dt hN (E ) h

Comparando con la ecuación 6.47 se ve qué la integral del numerador de la ecuación


6.53 dividida por h 3nA es precisamente la suma clásica de estados G t ( E - A E 0) de la
supermolécula en el estado de transición excluyendo el grado de libertad
correspondiente al camino de reacción. Es decir, G *(E -A E 0) es el número total de
estados que pueden existir con todas las combinaciones posibles de coordenadas y

328

Índice
Capítulo 6

momentos conjugados correspondientes a los 3/z-lgrados de libertad ortogonales al


camino de reacción, pero con la restricción de que la energía esté comprendida entre
0 y E-AE0.
Teniendo en cuenta que N no representa la concentración sino el número de
supermoléculas que atraviesan la superficie de división, se llega finalmente a la
constante de velocidad microcanónica:

k*(/ Ej-i\) = r 1
T
1 dN G H E-ÁE
---------= V — v , x
q) (6.54)
v ' [ A j 5 ] V dt hN {E )
donde G^E-AEg) es adimensional, mientras qm N(E) tiene unidades de energía'1. Por
tanto, si el volumen se da en litros las unidades de esta constante de velocidad
microcanónica son litro molécula'1 s'1. Si la ecuación 6.54 se multiplica por el
número de Avogadro (L) las unidades son litro mol'1 s"1. Si se trata de una reacción
unimolecular, la ecuación 6.54 queda
, v gH e-^eA
k( E ) = ------------------- i— ° ' (6.55)
v ’ hN(E) V '
d ó n d e la con sta n te de v e lo c id a d v ie n e dada en s"1. E v id en tem en te k(E) = 0 si E <
AEo-
La constante de velocidad canónica de una reacción en equilibrio térmico
también se puede obtener mediante la teoría microcanónica. Basta con aplicar la
teoría microcanónica a cada uno de los conjuntos de estados de los reactivos que
corresponden a cada energía total H = E determinada. Es decir, hay que calcular k(E)
para cada nivel de energía. Un promedio tipo Boltzmann de las constantes de
velocidad microcanónicas dará la constante de velocidad canónica a la temperatura
T:
00

t(T) k(E)P(E)dE (6.56)

donde P(E) es la densidad de probabilidad de ocupación del nivel energético con H


= E , la cual dentro de una estadística clásica, tiene la expresión

r ( E ) = ^ E)eJ ( « 7)
r°N(E)e k»T dE
;o
Sustituyendo las ecuaciones 6.54 y 6.57 en la ecuación 6.56 y realizando algunas
operaciones matemáticas, se llega a la constante de velocidad canónica k(T) ya dada
en la ecuación 6.15. Evidentemente, en caso de equilibrio térmico para obtener la
k(T) es mejor utilizar directamente la ecuación 6.15, no habiendo ninguna necesidad

329
Índice
Capítulo 6

de pasar por la teoría microcanónica (ecuaciones 6.54, 6.56 y 6.57), a menos que se
quiera obtener una información detallada, nivel por nivel, de las diferentes
contribuciones a la k(T).

6.2 Teoría variacional del estado de transición

Tanto la teoría canónica como la microcanónica desarrolladas en el apartado


6 .1colocan la superficie de división en el punto silla de la reacción, dando lugar a
la teoría convencional del estado de transición. De esta forma la constante de
velocidad puede calcularse únicamente con información de la hipersuperficie de
energía potencial de la reacción alrededor del punto silla y de los reactivos, sin
necesidad de conocer las características de la hipersuperficie en las regiones
intermedias. Se consigue así un importante ahorro en cuanto a volumen de cálculo
a costa de aceptar la hipótesis fundamental y, en consecuencia, exagerar el valor de
la constante de velocidad. La teoría variacional del estado de transición, es una
generalización de la teoría convencional que elimina el requerimiento de que la
superficie de división que establece el cuello de botella dinámico de la reacción tenga
forzosamente que pasar por el punto silla. Representa una clara mejora respecto a la
teoría convencional, aunque requiere un esfuerzo computacional mucho mayor.
Existen tanto la versión canónica como la versión microcanónica de la teoría
variacional, pero sólo desarrollaremos la primera en este libro. Concretamente en
este apartado se presenta una breve introducción de los principios y procedimientos
básicos de la teoría canónica variacional del estado de transición, cuyo acrónimo es
CVT ("canonical variational theory”).

6.2.1 Coordenadas cartesianas ponderadas

Definamos primero un sistema de coordenadas adecuado. Si las


supermoléculas contienen n núcleos el subíndice / = 1 ,..., n se utilizará para marcar
cada núcleo y el subíndice y = x, y, z indicará el tipo de coordenada cartesiana. Así,
\R}iy es el conjunto de coordenadas cartesianas de la supermolécula con respecto al
centro de masas de la misma (hay que recordar que el centro de masas mantiene
constante su energía traslacional si no hay ninguna fuerza externa que actúe sobre la
supermolécula; esto equivale, por tanto, a no considerar la energía de traslación
global de la supermolécula en el desarrollo de la teoríá). Normalmente se utiliza el
llamado sistema de coordenadas cartesianas ponderadas definidas por
x iy = m¡'2Riy, 1 = 1,..., n; y = x , y ,z (6.58)
cuyas unidades son uam 1/2 Á.
En este sistema de coordenadas la expresión de la energía cinética del movimiento
nuclear es diagonal (sin términos cruzados):

330
Índice
Capítulo 6

2 2
(6.59)

aunque la energía potencial sí tiene términos cruzados, ya que un desarrollo en serie


de Taylor alrededor de una estructura de referencia con coordenadas xiye da

(6.60)

donde V es la energía potencial que se obtiene a partir de la aproximación de Born-


Oppenheimer (no hay que confundirla con el volumen). En lo sucesivo en este
capítulo tanto los vectores como las matrices se representarán con letra en negrita.
Si la estructura de referencia es un punto estacionario el término de derivadas
primeras es nulo, y despreciando los términos de orden superior al segundo se
consigue una expresión sin términos cruzados mediante la diagonalización de la
matriz de derivadas segundas (también llamada matriz de constantes de fuerza o
Hessiano) cuyos elementos aparecen en el último término de la ecuación 6.60, lo que
da origen a las coordenadas normales y a los modos normales de vibración. La
expresión de la energía cinética en función de dichas coordenadas normales sigue
siendo diagonal.

6.2.2 Camino de reacción de mínima energía

La tercera condición de Mclver y Komornicki (ver apartado 6 .1) para definir


la estructura del estado de transición establece que debe ser el punto de más alta
energía potencial en una línea continua que conecte reactivos y productos. Esta línea
será el camino de reacción. El problema es como se define dicho camino. Podría
elegirse como el camino más corto (un camino recto) en el espacio de las
configuraciones nucleares que uniera las tres estructuras. Pero de esta forma no
habría ninguna garantía de que el punto de más alta energía potencial del camino
fuera precisamente el punto silla. Una alternativa razonable es bajar desde la
estructura del estado de transición en la dirección del gradiente, pero en sentido
contrario. Puesto que
dV = g d S (6.61)
donde g es el vector gradiente y dS es el vector desplazamiento, a igualdad de
longitud del desplazamiento, la máxima variación de energía potencial tiene lugar
en la dirección del gradiente (máximo descenso, en sentido contrario al gradiente).

331
Índice
Capítulo 6

Como el punto silla es estacionario, el camino debe comenzar con un pequeño paso
en la dirección del vector propio (vector de transición) asociado al único valor propio
negativo de la matriz de constantes de fuerza, en un sentido iniciando el camino
hacia los reactivos, y en sentido contrario hacia los productos. El problema es que
tanto el vector de transición como el gradiente no son en general invariantes ante un
cambio en el sistema de coordenadas. Cada sistema de coordenadas dará lugar a un
camino de reacción que, en general, será físicamente distinto del obtenido con otro
sistema de coordenadas.
Sin embargo hay un camino de reacción que tiene una especial relevancia
dinámica: el que corresponde a un movimiento clásico de una supermolécula que se
mueve hacia abajo a una velocidad infinitesimalmente próxima a cero. Es decir, a
medida que en cada paso infinitesimal disminuye la energía potencial y se crea
energía cinética nuclear, se elimina la velocidad de los núcleos que se va generando.
En el límite correspondería a un movimiento (movimiento intrínseco) cuya energía
sería siempre sólo energía potencial (la energía total en cada punto del camino
coincidiría con V). Partiendo de las ecuaciones clásicas de movimiento de Hamilton
en coordenadas cartesianas
dH dRiy dH dpiy
V i, y (6.62)
d p iy dt d R iy dt
donde p iy son los momentos conjugados de las coordenadas Riy del camino de
reacción, teniendo en cuenta que sólo la parte potencial de H depende de R iy y que
p ¡r = m¡ dRiy / dt, la integración de la segunda igualdad de la ecuación 6.62 a lo largo
de un intervalo de tiempo infinitesimal dt

(¿ni~dtL A d R iy \
\ dt d m , — — =-fJ+<1‘ --------dt
dV
V ij (6.63)
Jo 1 dt ) J> d R iy
donde se ha supuesto que en cualquier momento t a lo largo del camino la velocidad
dRiy / dt es cero, conduce a

m iy- = — ^ — d t V i, y (6.64)
' dt d R iy
y de aquí se obtiene el sistema de ecuaciones diferenciales simultáneas en
coordenadas cartesianas
m ^ R iy mvdRiY
(6.65)
dV dV
dR¡ r dR iy
Dividiendo ahora el numerador y denominador de cada fracción por m, llegamos

332
Índice
Capítulo 6

al sistema de ecuaciones diferenciales simultáneas en coordenadas cartesianas


ponderadas
d x iy d x iy
dv dv
(6.66)
d x iy d x iy
donde los desplazamientos infinitesimales de las coordenadas (numeradores) son
proporcionales a las componentes del gradiente (denominadores). Por tanto, el
camino de bajada con velocidad infinitesimalmente igual a cero puede construirse
simplemente expresando la energía potencial en coordenadas cartesianas ponderadas
y siguiendo la dirección del gradiente en dichas coordenadas. Es lo que se conoce
como coordenada de reacción intrínseca, cuyo acrónimo es IRC ("intrinsic reactjon
coordínate”), o camino de reacción de mínima energía, cuyo acrónimo es MEP
("minimum energy path"), que se origina en el punto silla y llega hasta los reactivos
y los productos. Evidentemente, cualquier punto del MEP, a menos que se llegue a
un punto de bifurcación o "branching point", es un mínimo a lo largo de cualquier
dirección ortogonal al gradiente (en estas direcciones las derivadas primeras son
nulas). Un punto de bifurcación es un punto en el que la concavidad a lo largo de
alguna de las direcciones ortogonales al MEP pasa de positiva a negativa.

6.2.3 Estados de transición generalizados

El problema principal de la teoría convencional del estado de transición es


que no tiene en cuenta el recruzamiento de algunas trayectorias a través de la
superficie de división que pasa por el punto silla. La teoría variacional intenta mitigar
el problema construyendo un conjunto de superficies de división generalizadas o
estados de transición generalizados, cuyo acrónimo es GTS ("generalized transition
State"), a lo largo de un camino de referencia que normalmente es el MEP. El estado
de transición variacional será el que minimice el recruzamiento y por tanto exagere
lo menos posible la constante de velocidad. De hecho el recruzamiento no se llega
a eliminar por completo (para conseguir recruzamiento cero habría que construir
superficies de división generalizadas en el espacio de fases, no sólo en el espacio de
configuraciones). Por tanto, en lo que se refiere al recruzamiento, la teoría
variacional sigue proporcionando un límite superior a la constante de velocidad,
aunque el error es menor que en la teoría convencional.
En el caso de la teoría canónica otra manera equivalente de abordar el
problema es a través de la formulación termodinámica. La teoría convencional coloca
la superficie de división en el punto silla porque asume que allí está el cuello de
botella dinámico de la reacción. De hecho, el punto silla sólo es el punto del camino
de reacción de más alta energía potencial. Posteriormente la propia teoría

333
Índice
Capítulo 6

convencional acaba demostrando que la constante de velocidad canónica (ver


ecuación 6.38) no depende de la barrera de energía estándar (y menos de la barrera
de energía potencial) sino de la energía de Gibbs estándar de activación. Por tanto,
parece lógico que el cuello de botella dinámico para una reacción en equilibrio
térmico lo establezca aquella superficie de división generalizada que haga máxima
la energía de Gibbs estándar de activación (y por tanto minimice la correspondiente
constante de velocidad), la cual, además de la contribución de la energía potencial,
incluye las contribuciones de los niveles de punto cero, de las poblaciones térmicas
de los niveles superiores, y las contribuciones entrópicas. Es evidente que el cuello
de botella dinámico no tiene que pasar necesariamente por el punto silla como
establece la teoría convencional.
Para clasificar los distintos estados de transición generalizados se utiliza la
longitud del arco (s) a lo largo del camino de referencia, usualmente el MEP. El valor
s = 0 se asigna al punto silla, y los valores negativos o positivos corresponden al lado
de los reactivos o al de los productos, respectivamente. Los valores de 5 de reactivos
y productos son sF y s^, respectivamente. Para una reacción bimolecular ^ = - °°. Si
se forman dos o más moléculas separadas como productos = °°. Cada superficie de
división generalizada en coordenadas cartesianas ponderadas se designa mediante el
valor de s del punto en el cual intersecta al MEP. Además, en general, se requiere que
el GTS sea perpendicular al MEP en el punto de intersección. El GTS
correspondiente a 5 = 0 es precisamente el estado de transición convencional que da
lugar a la constante de velocidad que dentro de la teoría canónica viene dada por la
ecuación 6.15. A partir de aquí resulta más práctico trabajar con una versión
ligeramente modificada de la ecuación 6.15:

(6.67)

donde q A(T) es la función de partición en el estado de transición convencional


(recordemos que se ha eliminado el grado de libertad correspondiente al camino de
reacción) con el origen de energía en el punto silla sin la energía de punto cero (el
origen de energía de la qxen la ecuación 6.15 sí está en el nivel de punto cero). <E>R(7)
es la función de partición de los reactivos por unidad de volumen si la reacción es
bimolecular o sin dividir por el volumen si la reacción es unimolecular; su origen de
energía corresponde a cada uno de los reactivos en su posición de equilibrio clásico
(sin energía de punto cero) separados a distancia infinita para una reacción
bimolecular o al único reactivo en su posición de equilibrio clásico para una reacción
unimolecular. V* es la barrera de energía potencial. Por tanto, a diferencia de la
ecuación 6.15, en el desarrollo de la teoría variacional la contribución de los niveles
vibracionales de punto cero no se incluirá en la exponencial de la energía, sino en las
propias funciones de partición. Finalmente, en las dos funciones de partición los

334
Índice
Capítulo 6

números de simetría rotacionales se han reducido al valor 1, por lo que se incluye en


la ecuación 6.67 el factor de simetría o que representa la multiplicidad del camino
de reacción, es decir, el número de caminos equivalentes que conducen de reactivos
a productos. Por ejemplo, para una reacción como Y + X - X - * Y - X + X , o = 2, pero
para la reacción Y + X - Z ^ Y - X + Z, <7=1.
Para cada s * 0 se puede definir un GTS que intersecta al MEP en s, con lo
que es posible definir una constante de velocidad generalizada para esta superficie
de división generalizada mediante una extensión directa de la ecuación 6.67:

(6.68)
donde qGT(T) s)cs la función de partición para la superficie de división generalizada
(sin el grado de libertad correspondiente al camino de reacción) que pasa por el punto
5 del MEP con el origen de energía en VMEP(s) y con todos los números de simetría
rotacionales reducidos al valor 1. VMEP(s) es la energía potencial a lo largo del MEP.
Naturalmente VMEP(s = 0) = V*.
La constante de velocidad canónica variacional para una temperatura.dada
se obtendrá minimizando kGT(T,s) sobre el conjunto de estados de transición
generalizados que se construyen a lo largo del MEP:
* CVT ( T ) - min i 'CT (T,s) - k eT ( t , sc, t (T)) (6.69)

donde scvt(T) indica la localización a lo largo del MEP del estado de transición
canónico variacional para la temperatura T. Es interesante resaltar que la posición del
estado de transición variacional varía con la temperatura (en contraposición con el
estado de transición convencional que está fijo en s = 0 para todas las temperaturas).
Por otra parte la generalización de la formulación termodinámica conduce
a una pseudoconstante de equilibrio generalizada análoga a la de la ecuación 6.32
(ahora no se incluye el número de Avogadro ya que en la teoría variacional se suele
tomar como estado estándar una concentración de 1 molécula/cm3, con lo cual las
constantes de velocidad para reacciones bimoleculares se dan en unidades de cm3
molécula"1 s"1):

(6.70)

Análogamente a la ecuación 6.33, la energía de Gibbs estándar de activación


generalizada es

(6.71)

335
Índice
Capítulo 6

Combinando la ecuación 6.68 con las ecuaciones 6.70 y 6.71 se llega a la constante
de velocidad generalizada
AG Gr’°(7\s)

(6.72)

con

A G gt’°(T, s) = RT W 0 _ i
(6.73)
k BT
L T <Pr l( rtr \)K°
v rO

6.2.4. Cálculo de la constante de velocidad canónica variacional

En este apartado discutiremos como se obtienen las diferentes magnitudes


que intervienen en el cálculo de las kGT(T,s) y, por tanto, de la constante de velocidad
canónica variacional.
En primer lugar hay que localizar los puntos estacionarios de la
hipersuperficie de energía potencial de la reacción: reactivos, punto o puntos silla (si
existen), productos y posibles intermedios. Aunque la casuística real es muy variada,
supongamos para simplificar que tenemos una hipersuperficie con solo tres puntos
estacionarios: un reactivo, un punto silla y un producto.
A continuación hay que construir un camino de reacción, normalmente el
MEP, que conecte reactivos con productos pasando por el punto silla. Como se ha
dicho en el apartado 6.2.2 el MEP se inicia en el punto silla en la dirección del vector
de transición, es decir, el vector propio asociado al único valor propio negativo de
la matriz de constantes de fuerza en coordenadas cartesianas ponderadas. Para ello
hay que hacer un análisis de modos normales mediante la diagonalización del
Hessiano F, cuyos elementos matriciales son

(6.74)
X
donde x*corresponde a la geometría del punto silla. El conjunto de coordenadas
normales Qm que diagonalizan la matriz F cumplen las ecuaciones clásicas del
movimiento

(6.75)

cuyas soluciones son

336
Índice
Capítulo 6

0 m(0 = íí sen K t+Óm (6.76)


/
donde t j es el punto de retorno clásico del modo m y Xm(s = 0) son los valores
propios de F. La diagonalización de F puede hacerse mediante la transformación
unitaria

(6.77)
donde el superindice T indica que hay que trasponer la correspondiente matriz o
vector(los vectores se darán como vectores columna, y si se trasponen, como
vectores fila); L(x*) es una matriz unitaria cuyas columnas Lm(x*) son los vectores
propios (que indican las direcciones de los modos normales) de F en el punto silla
asociados a los valores propios Xm(s = 0) (los cuales son los elementos diagonales de
la matriz diagonal A(x*)). Las frecuencias de los modos normales son

(6.78)

6 de los valores propios son cero (5 si la supermolécula es lineal) ya que


corresponden a las 3 traslaciones y 3 (o 2) rotaciones de la supermolécula, 1 es
negativo y los restantes son positivos y corresponden a los modos ligados. El valor
propio negativo corresponde al modo no ligado asociado al vector de transición en
la dirección dada por el vector propio L^x*), con una frecuencia imaginaria v*. El
primer paso del MEP a partir del punto silla se da siguiendo el vector iL ^x*) y a
partir de entonces el gradiente. Los pasos tienen que ser suficientemente cortos como
para que el MEP converja. De este modo a lo largo del MEP se calculan un conjunto
de geometrías y energías potenciales y gradientes {x(s), yMEP(.s), g(s)}.
Para obtener las qm (T,s) hay que hacer un análisis generalizado de modos
normales para los modos ligados en un conjunto de puntos tomados a intervalos
regulares a lo largo del MEP, por lo que es necesario calcular la matriz F (s) en
dichos puntos. Como para 5 * 0 el gradiente ya no es nulo ya no se puede hacer el
tratamiento convencional de modos normales. Sin embargo, las derivadas primeras
sí son cero en las direcciones ortogonales al gradiente (y, por tanto, al MEP). En
consecuencia, buscaremos los modos normales generalizados correspondientes a las
vibraciones ortogonales al MEP (son, por tanto, vibraciones que tienen lugar en el
GTS). Para ello hay que proyectar fuera de la matriz F(s) las contribuciones
correspondientes al gradiente y a las direcciones asociadas a las traslaciones y
rotaciones infinitesimales de la supermolécula. Los modos normales generalizados
ortogonales al MEP en x(s) se encuentran diagonalizando la matriz de constantes de
fuerza proyectada

337
Índice
Capítulo 6

Fp( s)-[l-P (s)]F (s ][l-P (s)] (6.79)


donde 1 es la matriz unidad 3n x 3n, y P(s), también una matriz 3n x 3n, es el
proyector sobre el gradiente, las traslaciones y las rotaciones, cuyos elementos (para
una supermolécula no lineal que proviene de una reacción bimolecular entre los
reactivos A y B) son

/ V y ' ( 5 ) = v í y ( s /
) v í 'y ' ( s ) + m +m
6 .„,
“ yy
+

y
a , O, L Jota'
ea'p-Y'^.-'Y'í5) ’ (6'8°)
a,p>a',p'
= x ,y ,z

i,i' = l,...,n;y,y' = x,y,z


donde las v¿ (s) son las componentes del gradiente en x(s)normalizado y cambiado
de signo en coordenadas cartesianas ponderadas, byy, es la delta de Kronecker (es
decir, = 1 si y = y ?, pero = 0 si y * y ’), ea^y es el tensor completamente antisimétrico
de orden 3, cuyos elementos valen
"0, si son iguales dos cualesquiera de los Índices a |3y
1, si a |3 y es una permutación par de xyz (6.81)
-1; si a |3 y es una permutación impar de xyz
I* (s ) es el tensor de inercia en x(s) en coordenadas cartesianas ponderadas:
2 2
X iy + X iz X i x X iy , ~ X ixX iz ^
2 2
~ X i x X iy X ix + X iz X iyX iz
(6.82)
2 2
~ X i x X iz ~ X i y X iz X ix + X ,y ,

Si la supermolécula es lineal sólo hay dos grados de libertad de rotación, pero hay
un grado de libertad adicional de vibración. Si suponemos que el eje de la
supermolécula coincide con el eje z, los elementos del proyector serán

PtrM = V íy ( 5 ) V f. .( 5)ó ó .z + - ' ....< L , +


rt
m , + mB (6.83)
xiz(s)xrz(s)
(ó ,-ó ó,1 i,i'= 1,? ,n-,r,r'= x,y,z
I(s) \ /T yz y z p ’

donde I(s) es el momento de inercia en x(s) en coordenadas cartesianas ponderadas:

338
Índice
Capítulo 6

/ M - j t a W j <6-84)
i-1
Como en la ecuación 6.77, la matriz de constantes de fuerza proyectada
puede diagonalizarse mediante una transformación unitaria

[L o r ( s ) j F p(s)L(,,'(S) - A ( S) (6.85)

donde LGT(s) es una matriz unitaria cuyas columnas son los vectores
propios (que indican las direcciones de los modos normales generalizados) de F(s)
asociados a los valores propios Xm(s) (los cuales son los elementos diagonales de la
matriz diagonal A(s)). Las frecuencias de los modos normales generalizados son

v m(5) = “- [ V ( 5)P> m = l,...,3 n (6.86)


Á J ti
7 de los valores propios son cero (6 si la supermolécula es lineal) ya que
corresponden a la dirección del gradiente, a las 3 traslaciones y a las 3 (o 2)
rotaciones de la supermolécula, y los restantes son positivos y corresponden a los
modos ligados ortogonales al MEP en x(s). En este contexto se suelen ordenar los
modos normales de manera que con F = 3«-6 (o 3n-5 si la supermolécula es lineal),
los primeros F -1 modos corresponden a los modos normales ligados y el modo F
corresponde al MEP.
Una vez realizados los cálculos anteriores ya estamos en condiciones de
evaluar las funciones de partición para las superficies de división generalizadas a lo
largo del MEP. Aplicando la aproximación de Born-Oppenheimer y despreciando los
acoplamiento entre vibraciones y rotaciones, qGT(T,s) puede factorizarse en producto
de las correspondientes funciones de partición asociadas a la parte electrónica y a los
grados de libertad vibracionales y rotacionales:
q ^ i T ^ - q 'H i T ^ K T ^ J ^ T . s ) (6.87)
donde las funciones de partición vibracional y rotacional corresponden al estado
electrónico fundamental.
La expresión de la función de partición electrónica es
E

V <6'88>
a

donde a = 0,1, ... se extiende al conjunto de niveles electrónicos, 1 ( 5 ) es la

degeneración del nivel electrónico a, y (Vi, s ) es la energía potencial del nivel


electrónico a medida respecto al cero de reactivos (definido después de la ecuación

339
Índice
Capítulo 6

6.67). De este modo, para el nivel electrónico fundamental


e e/ (** === m e p (s ) (6.89)
Puesto que en general el espaciado entre niveles electrónicos es grande, la función
de partición electrónica de la ecuación 6.88 converge rápidamente. Normalmente es
suficiente con tener en cuenta únicamente el nivel electrónico fundamental
(evidentemente con su degeneración asociada).
En cuanto a la parte vibracional, a partir de los valores propios Xm(s) de la
matriz Fp(s) puede construirse una aproximación armónica a la energía potencial para
cualquier punto x cercano a un punto x(s) del MEP:

<6-90)
m =1
donde Qm(s) es la coordenada normal correspondiente al modo normal generalizado
m cuando la supermolécula está en x:
2 m( s ) = [ x - x ( s ) ] » L * r ( s ) (6-91)
Las energías de los estados vibracionales correspondientes a la energía potencial de
la ecuación 6.90 son

£íl{ni>--->nF- V s ) = ^ E G
J bm (nm, s ) = y2 ( n m + y W ( s ) (6.92)
m=1 m=l¿*
donde el número natural nmes el número cuántico de vibración del modo m. Puesto
que en la aproximación armónica la función de partición vibracional es separable

<M 3)
m =1
con

r í l . ( r ’s ) - ' 2 e l,T (6-94)

La energía vibracional m(nm, s ) se mide desde el mínimo del pozo de potencial


correspondiente a cada s, es decir, desde VMEP(s). La suma en la ecuación 6.94
debería extenderse justo hasta el último término para el cual 8 ^ m(nm,s ) es menor
que la energía de disociación más baja de la supermolécula. Sin embargo, en el rango
de temperaturas que se considera normalmente la contribución de los estados de más
alta energía es despreciable, por lo que la suma puede extenderse en general a todos
los estados armónicos. Así se llega al resultado analítico

340
Índice
Capítulo 6

_ k lH
2k BT

í w U ^ ) ----------^ (6-95)

l-e keT
En cuanto a la parte rotacional, puesto que los niveles energéticos
rotacionales están muy próximos, la función de partición rotacional puede evaluarse
clásicamente. Así para una supermolécula lineal

<6-96>
donde I(s) se obtiene mediante la ecuación 6.84. Si la supermolécula no es lineal

2i.r
Jll A s ) l A s ) l As ) (6.97)
ñ2

donde I A ( s ) , / B ( s ) ,I c (s ) son los momentos de inercia principales de la


supermolécula, de manera que
h (s ) l B ( s ) l c (s) = dételo (s )] (6.98)
Finalmente, la función de partición de los reactivos por unidad de volumen
si la reacción es bimolecular (ver ecuación 6.68) puede factorizarse de forma que
4>” (7-) = <!>” (T W (T )q'¡' (T ) (6.99)
Si la reacción es unimolecular la función de partición de los reactivos es simplemente
yR( T ) = q '^ ( T ) (6.100)

En la ecuación 6.99 ( j ) es la función de partición correspondiente a la


traslación relativa de los reactivos por unidad de volumen:

K f(T )- 2 <6'101>

qT y q T son ^as Unciones de partición para los grados internos de libertad de los
reactivos A y B (excluyendo por tanto el movimiento traslacional), respectivamente.
Si A es una molécula el proceso de cálculo de q ¿ 1 es similar al descrito para las
qGT(T,s), aunque más sencillo ya que no hay que proyectar la matriz de constantes de
fuerza, teniendo en cuenta que sólo los valores propios de dicha matriz asociados a

341
Índice
Capítulo 6

las traslaciones y a las rotaciones son cero. Si el reactivo A es un átomo,


(6.102)
Lo mismo es aplicable para el reactivo B.
Por otra parte, los cálculos vibracionales permiten definir la llamada curva
de energía potencial adiabática (correspondiente al estado vibracional fundamental):
(6.103)

(6.104)
eG(5) = 2 e wm K = 0>s ) = 2 h ^ Vm^
m =1 m =1
es la energía de punto cero total de la supermolécula. En contraposición a la energía
potencial adiabática (que en realidad ya contiene el término cinético nuclear
correspondiente a la vibración de punto cero), la V también recibe el nombre de
energía potencial clásica.

6.2.5 Algoritmo RODS

En el apartado 6.2.3 se ha establecido que el camino de referencia a lo largo


del cual se distribuyen las superficies de división generalizadas es usualmente el
MEP. Sin embargo, la construcción del MEP es una de las partes más costosas del
cálculo variacional. Además, a través de las coordenadas cartesianas ponderadas, el
MEP depende de la masa, por lo que hay que repetir el cálculo del MEP para cada
nueva sustitución isotópica que se haga en la reacción. El algoritmo RODS
("reorientation of the dividing surface") permite realizar un cálculo variacional sin
necesidad de construir el MEP (o bien permite utilizar un quasi-MEP construido a
grandes pasos y, por tanto, probablemente poco convergido).
El método consiste en elegir alguna coordenada interna (coordenada
distinguida) como variable independiente para construir un camino de reacción o
DCP ("distinguished coordínate path") en función de ella. Cada punto del DCP se
obtiene fijando un valor predeterminado de la coordenada distinguida y optimizando
el resto de coordenadas internas de manera que se minimice la energía potencial. Por
ejemplo, en la reacción concertada A + BC - AB + C, se puede escoger la distancia
A-B en el lado de los reactivos y la distancia B-C en el lado de los productos.
Supongamos que para una serie de puntos x(k) calculados a lo largo del DCP,
con k = 1,..., K, la energía potencial se puede desarrollar hasta el término cuadrático.
A lo largo del DCP construimos un conjunto de superficies de división generalizadas
que son hiperplanos que pasan por los puntos x(k). Puesto que ahora el gradiente no
coincide con la dirección del DCP (no es el MEP) ya no está claro como debe
orientarse cada GTS (cuando el camino de referencia es el MEP los GTS se

342
Índice
Capítulo 6

construyen ortogonales al gradiente y, por tanto, al MEP en cada punto). Para


determinar la orientación definamos primero ñ (k ) como el vector unitario ortogonal
al hiperplano en el punto k. Para cada k se optimiza la orientación (y, por tanto,
ñ {k ) )de la correspondiente superficie de división generalizada de modo que se
maximice la energía de Gibbs estándar de activación generalizada:
A G 0GT’o(T,k) = md¡x A G GT’°(T,k,ñ(k)) (6.105)

con la energía de Gibbs estándar de activación correspondiente al estado de


transición canónico variacional dada por
A G CVT’°(T) = max AG ogt'° (T ,k) (6.106)

Para calcular AG GT’ °{ t , k , ñ (&)) hay que proceder como sigue. Suponiendo una
aproximación armónica, la energía potencial en un punto cercano a x(k) se puede
obtener a partir del siguiente desarrollo en serie de Taylor:

V (x) = v[x(fc)] + g^x(£)jr r + ^ - r r F[x(&)]r (6.107)

donde
r = x-x(k) (6.108)
Para un valor de k determinado y una orientación definida por ñ(&)hay que
encontrar el punto de mínima energía del hiperplano correspondiente(en el caso del
GTS ortogonal al MEP el punto de mínima energía es precisamente el punto de
intersección). Para ello se define la matriz de constantes de fuerza proyectada
F p (k , ñ ) = (l - ñ ñ T )(l - P RT )F [x (k ) | l - P RT )(l - ñ ñ r ) (6.109)
donde PRT proyecta sobre las rotaciones y las traslaciones (ver ecuaciones 6.80 y
6.83). Si ñ (£ ) es precisamente un vector unitario en la dirección del gradiente, la
ecuación 6.109 es equivalente a la 6.79. Además se puede definir el vector gradiente
proyectado

g, ( M ) = ( l - ñ ñ r ) ( l - P ' ,r)g[x(i)] («no)


El valor de r que minimiza la energía potencial de la ecuación 6.107 en el hiperplano
en cuestión cumple que
0 = g ( x ) = g P( M ) + F í>( M ) r A/ (6-111)
por lo que

343
Índice
Capítulo 6

r " = - [ F p( M ) ] V ( M ) (6112)
Naturalmente si ñ (fc ) es un vector unitario en la dirección del gradiente, rM= 0. La
energía potencial en el mínimo del hiperplano será

V“ (k,A)-v(x(k))+[gF{k,A)]vM+ |(r,')’rF' (6.113)


Teniendo en cuenta que las vibraciones tienen lugar alrededor del mínimo r Mcon
energía potencial V M ( k , ñ ) , un tratamiento análogo al descrito en el apartado 6.2.4

permite obtener la función de partición q GT ( t , k , ñ (&)) para el GTS que pasa por

el punto x(&) y está orientado según ñ (k ) . Mediante una ecuación análoga a la 6.73,

en la que se habrá sustituido VMEP(s) por V M { k , ñ ) , se llega a

M j GT’°{ t , k , n ( k )) . Repitiendo el proceso para diferentes orientaciones se aplica


la ecuación 6.105 y se determina el estado de transición canónico variacional (y
luego la correspondiente constante de velocidad) mediante la ecuación 6.106.
Con este algoritmo se ahorra mucho tiempo de cálculo ya que los pasos al
construir el DCP pueden ser bastante grandes y siempre se pueden añadir puntos
intermedios adicionales si se necesitan.

6.3 Efectos cuánticos a lo largo del camino de reacción

La teoría del estado de transición es originalmente clásica. Sin embargo la


introducción de efectos mecano-cuánticos que dan lugar a la cuantización de los
niveles de energía (y, especialmente, la existencia de las energías de punto cero) y
de efectos mecano-cuánticos sobre el movimiento a lo largo del camino de reacción
es indispensable para obtener valores aceptables de las constantes de velocidad.
Hasta aquí se han considerado sólo los primeros, mientras que en este apartado
estudiaremos como podemos tener en cuenta la influencia de los segundos.
Hasta este punto hemos supuesto que una reacción sólo puede funcionar si
los reactivos tienen una energía igual o superior al máximo de la curva de energía
potencial adiabática (ver ecuación 6.103), el cual corresponde al estado de transición
canónico variacional a T = 0 K. Sin embargo, las propiedades ondulatorias de la
materia permiten que la reacción pueda tener lugar mediante efecto túnel aún
teniendo los reactivos una energía inferior a la de dicho máximo. Para tener en
cuenta esta posibilidad se introduce en la teoría variacional un factor llamado
coeficiente de transmisión semiclásico kcvt(T) de tal modo que

344
Índice
Capítulo 6

k CVTIIUII(T) = KCVT(T)kCVT(T) (6.114)


La introducción del efecto túnel es absolutamente indispensable en
reacciones que fundamentalmente consisten en la transferencia de núcleos ligeros
como, por ejemplo, en las reacciones de transferencia protónica o de hidrógeno.
Si suponemos que el camino de reacción (generalmente el MEP, pero
también puede ser un DCP) tiene poca curvatura podemos aceptar que la corrección
mecano-cuántica al movimiento a lo largo del camino de reacción se debe
fundamentalmente al túnel a través de la región del punto silla. Así, el movimiento
cuántico de la supermolécula se describe aproximadamente mediante una ecuación
de Schrödinger nuclear monodimensional (lo que supone despreciar la curvatura del
camino de reacción) correspondiente al movimiento de una partícula de masa
reducida ¡j, sobre un potencial dado por la curva de energía potencial adiabática en
función de s. El operador Hamiltoniano es

(6.115)

En coordenadas cartesianas ponderadas las masas quedan incorporadas en las propias


coordenadas por lo que la de la ecuación 6.115 toma el valor 1 sin dimensiones. El
coeficiente de transmisión semiclásico que se obtiene se representa por Kcv7yzcr(7 ),
donde ZCT es el acrónimo de f,zero-curvature tunneling" y se calcula mediante el
cociente entre la probabilidad de transmisión cuántica P(E) promediada según una
distribución de Maxwell-Boltzmann a la temperatura T, y la probabilidad de
transmisión clásica promediada de la misma forma:
E
oo

(6.116)
OO

donde Vag es el valor máximo de la energía potencial adiabática, es decir,


(6.117)
y en la integral del denominador se ha utilizado el que la probabilidad de transmisión
clásica sea 0 para E < VAG, pero 1 para E > VAG. Los límites superiores de las
integrales sólo deberían extenderse hasta la energía de disociación más baja de la
molécula. Sin embargo, la presencia de la exponencial de la energía hace que los
términos adicionales que se añaden hasta el límite superior «>sean despreciables a las
temperaturas que se consideran normalmente.
Una aproximación semiclásica a la probabilidad de transmisión cuántica
permite llegar a las siguientes expresiones según el intervalo de energías en el cual

345
Índice
Capítulo 6

esté comprendida la energía de la supermolécula:


0, E < E ‘“n

1
E ‘un< ; E < V AG
1 26 £ ’ 0
P{ E) ~, 1+ e (6.118)
tun
1 - P ¡ 2 V ag - e }, V ag ^ E ^ 2Vag - E 0

1, 2V AG- E ‘u n < E
donde
= m a x jV / (s = (5 = co)] (6.119)

es la energía umbral cuántica y

(6.120)
es la integral de acción, siendo s¡ y s2 los puntos de retorno clásicos, es decir, los
puntos en los cuales (s ) = E . Como se ha dicho más arriba en coordenadas
cartesianas ponderadas la de la ecuación 6.120 toma el valorlsin dimensiones.
La segunda línea de la 6.118 corresponde al túnel, mientras que la tercera
línea es el resultado de la reflexión cuántica. Como resultado de estas ecuaciones,
k CVT/ZCT(j > 1 ? c o n K CVT/ZCT( r _ 0 ) y k CVT/ZCT( 7% oo)

Si se quiere tener en cuenta la curvatura del camino de reacción en casos de


curvatura moderada hay que introducir una masa reducida efectiva /¿ef en sustitución
de [i en la ecuación 6.115 y, por tanto, en la ecuación 6.120. De este modo /ue{
*1 incluso utilizando coordenadas cartesianas ponderadas. De hecho, debido a la
curvatura jud < 1 lo que hace disminuir la integral de acción y por tanto aumenta la
probabilidad de transmisión cuántica y el factor de transmisión semiclásico (’'córner
cutting"). Se obtiene entonces el método SCT, acrónimo de "small-curvature
tunnelingn. Sin embargo, si la curvatura del camino de reacción es muy grande hay
que utilizar métodos bastante más complicados y de aplicación mucho más costosa
computacionalmente como el LCT, acrónimo de ’’large-curvature tunneling”.

6.4 Comentario final

La teoría del estado de transición incluyendo los efectos variacionales y el


efecto túnel es hoy en día (y, probablemente, durante muchas décadas) la única teoría
capaz de proporcionar valores bastante exactos de las constantes de velocidad de las
reacciones químicas (como se ha dicho al principio, para reacciones en fase gas

346
Índice
Capítulo 6

incluyendo hasta 10 -15 núcleos los resultados pueden llegar a ser muy exactos). La
obtención de valores numéricos fiables de las constantes de velocidad puede ser un
objetivo en sí mismo, pero es un requerimiento indispensable para poder predecir
mecanismos de reacciones complejas, especialmente en aquellos casos en los que las
medidas experimentales son muy difíciles y de precisión incierta.
En este capítulo hemos realizado un primer acercamiento elemental a la
teoría del estado de transición, aunque por la limitación del espacio disponible,
hemos dejado muchos puntos sin tratar. Hay que tener en cuenta que incluso si se
conociera a la perfección la hipersuperficie de potencial de una reacción (o al menos,
el conjunto de puntos estacionarios de una reacción), la deducción del valor de la
constante de velocidad muchas veces no sería en absoluto directa. Es decir, los
cálculos electrónicos son el primer paso fpero sólo el primer pasolpara la
determinación de las constantes de velocidad, pero a partir de ellos hay que aplicar
tratamientos a veces bastante elaborados (como, por ejemplo, la teoría estadística
unificada canónica para reacciones con múltiples cuellos de botella cinéticos) para
obtener las constantes de velocidad. Por otra parte, la teoría convencional del estado
de transición sólo es aplicable para reacciones cuya hipersuperficie de energía
potencial tiene un punto silla. Si no existe una barrera de energía potencial (aunque
sí, evidentemente, existirá una barrera de energía de Gibbs) sólo la teoría variacional
del estado de transición permite obtener un valor de la correspondiente constante de
velocidad.
Los cálculos descritos en este capítulo pueden realizarse con el programa
POLYRATE (cuya versión más reciente, a marzo de 2000, es la 8.4) del grupo de
Donald G. Truhlar (University of Minnesota, Minneapolis, Minnesota, USA), un
programa en constante evolución.
Finalmente, hay que remarcar que aunque aún hay que introducir mejoras
adicionales en la teoría del estado de transición y en la forma práctica de aplicarla
(no sólo en fase gas, sino que también hay que extenderla desde el punto de vista
práctico a las reacciones en disolución y a las reacciones enzimáticas), el principal
problema que afecta a la exactitud de los resultados és la carencia hoy en día de un
método suficientemente exacto y práctico para resolver la ecuación de Schródinger
electrónica. Hay que tener en cuenta que las constantes de velocidad tienen
dependencias exponenciales respecto a las energías, por lo que pequeños errores en
éstas producen grandes errores en aquéllas.

Bibliografía

1. "Molecular Dynamics and Chemical Kinetics, J.I. Steinfeld, W. Hase y J.


Francisco (Prentice Hall, 2- Ed., 1999).

2. "Generalized Transition State Theory", D.G. Truhlar, A.D. Isaacson y B.C.

347
Índice
Capítulo 6

Garrett, en "Theory of Chemical Reaction Dynamics", Vol. IV, Ed. M. Baer (CRC
Press, Boca Raton, FL, USA, 1985, p. 65 - 137).

3. "Dynamical formulation of transition state theory: variational transition states


and semiclassical tunneling", S.C. Tucker y D.G. Truhlar, en "New Theoretical
Concepts for Understanding Organic Reactivity", Ed. J. Bertrán y I. Csizmadia
(Kluwer, Dordrecht, Holanda, 1989, pp. 291 - 346).

4. J.C. Corchado, E.L. Coitiño, Y.-Y. Chuang, P.L. Fast y D.G. Truhlar, J. Phys.
Chem. A 1998,102, 2424 - 2438.

Índice
7 ESPECTROSCOPIA I: ESPECTROSCOPIA Y
DINÁM ICA DE ESTADOS ALTAMENTE EX­
CITADOS VIB RACIONALM ENTE

F . B o ro n d o

Departamento de Química, C-IX; Universidad Autónoma de Madrid;


Cantoblanco - 28049 Madrid.

7.1 In tro d u c c ió n

La espectroscopia vibracional que se presenta habitualmente en los cursos


introductorios de esta m ateria se limita a considerar los estados más bajos en
energía. En ellos el movimiento nuclear está fuertemente restringido a regiones
muy localizadas alrededor del (o los) mínimo(s) de la superficie de energía
potencial, la cual se calcula dentro de la aproximación estándar de Born-
Oppenheimer utilizando, por ejemplo, los métodos descritos en el capítulo 2
de este texto.
En esta situación el modelo armónico, que conduce a la conocida dinámica
en modos normales [1], es válido. Las fuerzas recuperadoras para desplaza­
mientos suficientemente pequeños provienen de potenciales puramente cuadráti-
cos y el movimiento nuclear en coordenadas rectilíneas se puede describir me­
diante un modelo sencillo de masas puntuales unidas por “muelles” que siguen
la ley de Hooke. Así, se puede llevar a cabo un análisis de modos normales y
obtener, utilizando ideas mecano-cuánticas muy sencillas, las combinaciones
lineales de desplazamientos nucleares que corresponden a osciladores armóni­
cos desacoplados. Si se excita vibracionalmente uno de estos osciladores, la
energía permanece localizada en ese modo normal, de forma que esta no puede
fluir de la excitación colectiva de osciladores a un modo específico (modo lo­
cal). Las pertubaciones se incluyen en forma de (débiles) anarmonicidades,
que son responsables de las frecuencias de sobretono y bandas de combinación
[2]-
En este régimen la dinámica intramolecular es completamente regular y
los espectros consisten, en general, en una progresión de bandas, que corres­
ponden a las diferentes excitaciones en cada modo normal, siendo, por tanto,
completamente asignables. Además esta asignación se puede llevar a cabo, en
principio, de una forma sencilla debido a la ausencia de irregularidades.
Desde un punto de Vista mecano-cuántico esta simplicidad no es más que el
reflejo del patrón nodal regular que exhiben las correspondientes funciones de

349 Índice
Capítulo 7

onda [3 ], donde es posible la asignación de números cuánticos de una manera


fácil (por inspección visual por ejemplo).
La aparición de los láseres y el desarrollo de las técnicas de alto vacío
y métodos de detección muy sensibles han propiciado la puesta a punto en
las últimas décadas de modernas técnicas espectroscópicas que han cambiado
radicalmente el panoram a descrito anteriormente. Hoy en día no sólo es posi­
ble llevar a cabo una espectroscopia de muy alta resolución de los niveles
vibracionales más bajos (mediante espectroscopia en haces supersónicos, por
ejemplo), sino que también es posible explorar estados altam ente excitados
[4, 5, 6 ]. Esto no sólo proporciona una gran cantidad de información muy
precisa sobre las características estructurales de las especies implicadas, sino
que abre la puerta al conocimiento de los procesos dinámicos subyacentes,
tales como fotodisociación [7], descomposición unimolecular, isomerización,
transferencia intramolecular de energía [8 ], etc. En estos métodos, entre los
que se encuentran la excitación de sobretonos IR, la ionización multifotónica,
la espectroscopia por bombeo de emisión estim ulada 1 o la fotoextracción de
electrones2, se accede a amplias regiones de la superficie de energía potencial
alejadas de la geometría de equilibrio.
A medida que se aum enta la energía de excitación nos movemos a zonas
del potencial donde las anarmonicidades e interacciones entre modos son im­
portantes, accediendo incluso a las barreras que puedan existir a lo largo del
camino de reacción, y que corresponden a la ruptura y formación de enlaces.
En estas regiones la aproximación armónica deja de ser válida y la interacción
entre modos cobra gran im portancia [9, 10]. La dinámica vibracional en este
régimen cambia drásticam ente (los modos normales dejan de ser útiles para
la descripción del movimiento nuclear, de modo que tiene lugar una transi­
ción hacia modos locales) y la estructura de los correspondientes espectros se
vuelve mucho más complicada. Por o tra parte, la transferencia intramolecular
de energía también comienza a ser im portante. Esto por una parte constituye
una complicación y un reto en el estudio de estos procesos, pero por otra se
tiene la esperanza de que sean lo suficientente sensibles a las características
del sistema como para perm itir el control de las reacciones químicas mediante
excitación con láser. Aunque esta m eta parece estar todavía lejos en el caso
de moléculas poliatómicas grandes, en el caso de sistemas triatómicos se han
conseguido grandes avances. Por ejemplo Crim y col. [1 1 ] determinaron los
rendimientos para la reacción de átomos de hidrógeno con H O D excitando

1Stimulated emission pumping en inglés.


2 Electron photodetachment en inglés.

350 Índice
Capítulo 7

selectivamente uno sólo de los enlaces:

H + H OD (v) —* H 2 + OD Canal (a)


— > HD + OH Canal (b) (7.1)

Estos autores encontraron que la excitación al tercer sobretono del O — H


(ü = v o h = 3) favorece la ru p tu ra por el canal (a) en un factor de ~200,
mientras que cuando se excita al cuarto sobretono del O — D (v — v q d = 4)
se favorece la ruptura del enlace O —D en un factor de ^220. Este resultado
dem uestra claramente que mediante excitación vibracional selectiva se puede
controlar esta reacción de forma que transcurra de forma muy específica por
uno sólo de los canales posibles.
Desde el punto de vista de la mecánica clásica este cambio de compor­
tam iento está bien entendido en términos del teorema KAM (debido a los
matemáticos Kolmogorov, Arnold y Moser) [1 2 ]. Este teorem a establece que a
medida que se introduce una perturbación en un sistema integrable, es decir,
a medida que se aum enta la excitación vibracional (apartándonos del régimen
cuadrático), parte del movimiento se vuelve caótico, aunque sobreviven islas
de regularidad correspondientes a resonancias entre modos, que originan un
fuerte flujo irreversible de energía vibracional entre ellos [9]. En las zonas caóti­
cas, el sistema explora de forma errática amplias zonas del espacio de fases,
de forma que se tiende hacia una equipartición de la energía. Sin embargo,
este proceso se ve dificultado por la existencia de diversos tipos de barreras.
En primer lugar, los toros invariantes constituyen barreras impenetrables en
el caso de sistemas de dimensión dos (2 D). Además, existen en este tipo de
situaciones toros de estructura fractal parcialmente destruidos (cantoros [12 ])
que actúan como “cuellos de botella” o barreras parciales para la evolución de
las trayectorias [13]. En el caso de sistemas de más de 2D los toros intactos
tienen dimensión 2N en un espacio de dimensión 2 N —5 de forma que sólo
constituyen un impedimento para la evolución de las trayectorias (difusión de
Arnold [1 2 ]).
Desde el punto de vista mecano-cuántico se han desarrollado recientemente
métodos teóricos muy interesantes para el cálculo preciso de autovalores y fun­
ciones de onda de los estados altam ente excitados vibracionalmente necesarios
para la interpretación de los nuevos tipos de espectros, así como para llevar
a cabo estudios dinámicos cuánticos dependientes del tiempo (propagación de
paquetes de onda) [14, 15]. Entre los primeros cabe destacar el método de
representación discreta de variables (DVR) [16] por su especial eficiencia (ver
sección 7.4.1 más adelante).
En este régimen de altas energías la interpretación de la estructura de las

351
Índice
Capítulo 7

correspondientes funciones de onda nucleares en términos simples es mucho


más difícil. Si la excitación considerada no es muy grande, la elección de un
sistema de coordenadas adecuado (curvilíneas por ejemplo [17]) puede ser su­
ficiente. Sin embargo, para energías muy altas (en la que el límite semiclásico
es aplicable) la fracción de funciones de onda que muestran una distribución
de los planos nodales compleja aum enta significativamente. Un resultado in­
teresante a este respecto fué la constatación de la existencia de un número
significativo de estados para los que las correspondientes autofunciones apare­
cen fuertemente localizadas sobre órbitas periódicas inestables del sistema
[18, 19, 20, 2 1 ]. Estas órbitas corresponden a trayectorias clásicas que se
retrazan a sí mismas, de forma que el movimiento tiene lugar en subespacios
de dimensión reducida [22]. Forman un conjunto denso en el espacio de fases
de infinitos elementos, y constituyen el único resto de orden dentro del “mar”
caótico. La observación de estas funciones de onda con marcadas “cicatrices ” 3
dentro del régimen caótico fué encontrada por primera vez por McDonald y
Kaufmann en 1979 en sus cálculos sobre el estadio de Bunimovitch [23], y
representó una gran sorpresa en la comunidad no lineal. Este sistema, que es
una versión de la caja rectangular de potencial “perturbada” con dos semicír­
culos en los extremos más cortos, cumple todas las propiedades en la jeraquía
del caos [24]. En la época en que estos cálculos fueron comunicados, se acep­
ta b a que para altos niveles de excitación, donde el régimen es ergódico, todo
el espacio de fases (excepto subconjuntos de medida nula) debía contribuir
en pié de igualdad a la dinámica de este tipo de sistemas, de forma que se
esperaba que las funciones de onda correspondientes exhibiesen una densidad
de probabilidad distribuida de forma homogénea sobre el mismo [25], como
sugiere el teorema de Shnirelman [26].
La existencia de cicatrices, con la localización de densidad de probabili­
dad que conlleva, tiene im portantes consecuencias prácticas. Por ejemplo, se
ha dem ostrado recientemente que es responsable del aumento dramático de
magnetoconductividad que se observa para ciertas condiciones en dispositivos
microelectrónicos de diodo de túnel resonante [27], o en el caso que nos ocupa
condiciona fuertemente la formación de estructuras de baja resolución en los
espectros de vibración de especies muy excitadas [28] (ver sección 7.4.2 más
adelante).
P ara term inar esta introducción diremos que el fenómeno de las cicatrices,
o más en general el de las manifestaciones cuánticas del caos clásico [29], es un
tem a abierto dentro de la dinámica no lineal del que se espera que se puedan
producir interesantes resultados en un futuro próximo (por ejemplo sobre la

3Del inglés scar.

352
Índice
Capítulo 7

Figura 7.1: Esquema de la célula resonante fotoacústica utilizada en los ex­


perimentos de excitación de sobretonos del benceno vapor de [30].

interacción entre sistemas cuánticos microscópicos y macroscópicos clásicos en


el proceso de la medida).
La organización de este capítulo es la siguiente. En primer lugar describire­
mos brevemente una serie de técnicas experimentales recientes para el estudio
de la zonas de la superficie de energía potencial alejadas de la región de equi­
librio. A continuación describiremos la formulación dependiente del tiempo
de la espectroscopia que nos perm itirá relacionar a esta con la dinámica. Por
último, presentaremos varios ejemplos correspondientes al sistema molecular
L i N C — L i C N en los que se utilizará la técnica de propagación de paquetes
de onda para explorar cuánticamente el espacio de fases de la molécula.

7 .2 T é c n ic a s E x p e r i m e n t a l e s
7.2.1 E xcitación de sob reto n o s en infrarrojo
En este apartado describiremos sucintamente algunos experimentos clási­
cos de excitación alta de sobretonos. Como ya indicamos en la Introducción,
en estas experiencias se pone en juego una energía vibracional suficientemente
alta como para poder acceder a regiones de la superficie de energía potencial
donde la dinámica corresponde a movimientos de gran amplitud, incluso cer­
canos a las posibles barreras para transformaciones químicas unimoleculares
(isomerización, etc.). En estas zonas las interacciones y anarmonicidades son
lo suficientemente im portantes como para inducir rápidos procesos de trans­
ferencia intramolecular de energía.
En primer lugar mencionaremos los trabajos pioneros de Berry y col. so­
bre la excitación de sobretonos de la tensión (de alta frecuencia) C — H(D)
en benceno vapor a tem peratura ambiente [30], en los que se llegó a niveles
tan altos como vqh = 9 ^ 0 . Estos autores desarrollaron un sensible método
fotoacústico intracavidad (ver ilustración en la figura 7.1) con el que midieron
la anchura correspondiente a las distintas transiciones. Las medidas arrojaron

353 Índice
Capítulo 7

valores bastante grandes (30-110 cm "1) que dependían de una forma no monó­
tona del número de cuantos excitados, creciendo en el intervalo vch — 4 0
a UcH - 7 o y decreciendo para v c h — 8 0 y v c h — 9 f - 0. Además
esta tendencia depende muy sensiblemente de la sustitución isotópica H / D ,
lo que sugiere la presencia de resonancias vibracionales de bajo orden entre
la tensión C — H(D) y otros modos del benceno. De los valores de las an­
churas puede derivarse, utilizando razonamientos basados en el principio de
incertidumbre, los tiempos característicos de decaimiento de estas excitaciones
debido al acoplamiento con otros modos, resultando así que la transferencia
de energía en este caso es muy rápida, por debajo del picosegundo.
Más tarde, estos experimentos fueron explicados teóricamente por Sibert,
Eeinhardt y Hynes [31], que identificaron la fuente de la anchura de las líneas
en la resonancia (no lineal) de Fermi 2:1 entre la tensión C —H (D ) y la flexión
de enlaces C —C — H (D ).
O tros trabajos que merecen ser citados en este campo son los del grupo
de Quack [32] sobre la espectroscopia de sobretonos en metanos sustituidos,
C H X 3 , (X — D^F^Cl^Br^CF^). Aquí también existe una im portante reso­
nancia de Fermi 2:1 entre tensión y flexión (^flexión ~ 1500 cm - 1 , te n sió n ~
3000 cm -1 ) [3 3 ], que define una serie de estados cuasiresonantes flexión-
tensión en la vecindad del estado “brillante” inicial que satisfacen la expressión:

N — ^tensión + 2 ^flexión fí-ty

que forman una poliada vibracional de orden N + 1, donde resultan acoplados


los estados de orden cero. Intensión’ ®)’ Intensión — Intensión — 4), etc.,
y de cuya diagonalización podemos obtener el espectro simulado.
Finalmente describiremos los experimentos de fotolisis mediada por ex­
citación vibracional ( vibrationally mediated photolysis en inglés) sobre H N O 3
de Fleming, Li y Eizzo [34]. En ellos la tensión O — H es excitada mediante
un láser pulsado a la región del sobretono v o h — 4 <— 0 en el ácido nítrico,
que está situada justo por debajo del umbral de la disociación en los frag­
mentos O H y N O 2 , que se produce con un segundo láser de IE. Por último,
el fragmento O H se detecta mediante fluorescencia inducida por láser (FIL).
Así, en el caso en que la transferencia intramolecular de energía sea muy pe­
queña, el espectro de absorción A v — + 1 para el segundo láser se parecerá
mucho al de una sola banda v o h = 5 ^ 4 , mientras que cuando existe un
acoplamiento fuerte el espectro correspondiente constaría de una serie de ban­
das desplazadas al azul v o h = 4 f - 3,3 ^ 2,2 f - 1,1 f - 0, que es lo que se
observa experimentalmente (ver figura 7.2).

354
Índice
Capítulo 7

F r e c u e n c i a (cm )

Figura 7.2: Espectro de absorción por doble resonancia IR del H N O 3 origi­


nado desde el nivel v o h — 4 (adaptado de la referencia [34]).

7.2.2 E sp ectroscop ia por b om b eo de em isión estim u lad a

La técnica de bombeo de emisión estimulada (BEE) [5, 6 ] es una variante


de la de doble resonancia óptica-óptica en la que el segundo salto es de desex­
citación. Por tanto, com parte las mismas características de resolución sub-
Doppler, selectividad y simplificación de los espectros. Un esquema de las
transiciones implicadas en esta técnica se m uestra en la figura 7.3.
Un láser de bombeo excita las moléculas a un estado electrónico superior,
para, a continuación, estimular su desexcitación mediante un segundo láser de
volcado. Habitualmente esto conduce a niveles vibracionales altam ente exci­
tados en el estado electrónico fundamental, que no son fácilmente accesibles
por otras técnicas. La detección puede llevarse a cabo de distintas formas. Por
ejemplo, puede monitorizarse la disminución en la intensidad de la fluorescen­
cia espontánea del estado excitado a medida que el láser de volcado se sintoniza
con los distintos estados posibles de llegada. O tra técnica de detección muy
empleada es la de ionización multifotónica.
Las ventajas de la espectroscopia BEE son múltiples. En primer lugar,
y al igual que ocurre en otras técnicas de doble resonancia, el hecho de que
se seleccione un único nivel vibro-rotacional intermedio del estado electrónico
excitado combinado, con la existencia de reglas de selección rotacional para
las transiciones de bombeo y volcado, hace que no exista congestión rotacional

355 Índice
Capítulo 7

Figura 7.3: Transiciones implicadas en la espectroscopia por bombeo de


emisión estimulada. Un láser de bombeo excita las moléculas a un estado
electrónico excitado. A su vez su desexcitación es estimulada mediante un se­
gundo láser de volcado, lo que se produce habitualm ente a niveles vibracionales
altam ente excitados del nivel electrónico fundamental.

en el espectro. Así, en el caso más general sólo son posibles tres valores del
momento angular rotacional, J , del estado final, de forma que la asignación
de las líneas resultantes no es complicada.
Una segunda ventaja de la espectroscopia BEE es que consigue una gran
selectividad en los modos vibracionales excitados. Habitualmente la geometría
de equilibrio de los estados electrónicos excitados es muy distinta a la del
fundamental. Esto hace que, debido al principio Franck-Condon, los elementos
de la m atriz de transición sólo sean im portantes para aquellos estados finales
activos en el número, en general pequeño, de modos vibracionales que reflejan
este cambio de geometría. Por otra parte y debido a la misma causa, la
población de niveles en los modos activos puede extenderse a estados bastante
excitados (1.0-3.5 eV), lo que en moléculas poliatómicas puede implicar un
cambio en varios órdenes de magnitud de la densidad de estados.
Por último mencionaremos que desde el punto de vista teórico la espectros­
copia BEE es muy interesante. Al igual que en la técnica de fotoextracción
de electrones que se describirá en la sección siguiente, los experimentos de
BEE se basan en la preparación de un paquete de ondas no estacionario cuya
evolución dinámica corresponde al movimiento colectivo de los estados esta-

356 Índice
Capítulo 7

donarlos implicados, de forma que “contiene” todas las distintas escalas de


tiempo asociadas a estos estados. E sta filosofía de trabajo conecta muy bien
con la corriente de estudios mecano-cuánticos dependientes del tiempo que
han proliferado recientemente en la literatura químico-física [35], desencade­
nada entre otros muchos motivos por la aparición de la femtoquímica [36], y en
la que se llevan a cabo propagaciones de paquetes de onda para el estudio de
diferentes fenómenos dinámicos como son la fotodisociación, descomposiciones
unimoleculares, reactividad química, etc; [7]. Así mismo, muchas caracterís­
ticas de la propagación inicial del paquete siguen las leyes de la mecánica
clásica (ver sección 7.4.2), y la dinámica clásica en la zona que estamos con­
siderando es fuertemente no lineal con lo cual cabe esperar que los espectros
BEE muestren muchas de las características de los espectros caóticos [37] des­
critas en la bibliografía de áreas como la Física Nuclear [38, 39] o la Física
Atómica [40].
Antes de pasar a describir algunos ejemplos representativos de espectrosco­
pia BEE descritos en la literatura, es interesante hacer notar que los métodos
alternativos para el estudio de estados vibracionales excitados como son la
excitación directa de sobretonos (ver sección anterior) o la absorción multi-
fotónica presentan menos ventajas. Por una parte, tanto uno como otro adole­
cen de una preparación rotacional selectiva lo que hace que los correspondien­
tes espectros aparezcan muy congestionados. Por o tra parte en la excitación
directa la probabilidad de absorción, como es bien sabido, es extremadam ente
débil, y la excitación multifotónica tiene lugar a través de múltiples caminos
concurrentes derivados de la distribución de fotones absorbidos.
Un sistem a que ha sido muy estudiado entre otros métodos por espectros­
copia BEE es el acetileno, C 2 H 2 [41]. Estos espectros se obtienen estimulando
las transiciones al estado fundamental, X 1S+, desde el estado excitado A 1A U1
obteniendo una resolución típica de 0.05 cm- 1 , que es suficiente para resolver
prácticam ente todos los niveles vibracionales.
La densidad de estados en esta molécula crece de forma relativamente
lenta con la energía, de forma que los espectros se pueden resolver bastante
bien incluso a energías de interés químico (Ey¡B < 20000cm _1 = 57kcal/mol),
bastante por encima de la barrera de isomerización entre acetileno y vinilideno:

H aC b = C cH d ►C b = CcH aH b H dC b = CcH a (7.3)

que es del orden de 15000-16000 cm " 1 [42].


Las vibraciones de este sistema molecular muestran incluso en los nive­
les más bajos una serie de perturbaciones espectroscópicas, que demuestran
la existencia de im portantes términos resonantes anarmónicos entre modos

357
Índice
Capítulo 7

normales. Dado que es una molécula tetratóm ica lineal, tendrá siete números
cuánticos vibracionales: (ui, ü2 , t?3 , U4 , / 4 , U5 , ¿5 ) correspondientes a las tensiones
C — H, C = C, C — H , y flexiones ¿rans (z/4 ) y (z/5 ), respectivamente. Los
números I4 y ¿5 indican el carácter de momento angular vibracional asociado
con estas flexiones doblemente degeneradas [43]. Las resonancias más impor­
tantes son una de tipo Darling-Dennison 2 :2 entre las tensiones v\ y z/3 , otra
con las mismas características entre las flexiones y varias interacciones cuár-
ticas 1 : 1 + 1 + 1 donde un cuanto de una de las tensiones C — H {y\ ó z/3 ) se
intercam bia por un cuanto en la tensión C = C (v2 ) más dos cuantos de las
flexiones z/4 y z/5 . La existencia de estas ocho resonancias en el acetileno, cada
una de las cuales destruiría en principio un número cuántico, nos haría pensar
que no existen números cuánticos razonablemente buenos para los correspon­
dientes estados vibracionales. Sin embargo, esto no es así ya que no todas
las resonancias anteriores son linealmente independientes. Si representamos
cada una de ellas por un vector heptadimensional en el espacio de los números
cuánticos, de forma que por ejemplo la resonancia Darling-Dennison entre
tensiones, &1133Q 1Q 3 , y la cuártica 3:2+4+5, &3245 Q 3 Q 2 Q 4 O 5 ? vengan dadas
por los vectores (A ^i, Aü 2 , Aü 3 , Aü 4 , Aug, A A U 7 ) = (2 ,0 ,- 2 ,0 ,0 ,0 ,0 ) y (0 , 1 ,-
1 , 1 ,0 , 1 ,0 ) respectivamente, es un ejercicio fácil de álgebra lineal encontrar un
conjunto de vectores m utuam ente ortogonales que sean a su vez ortogonales
con las resonancias anteriores, y que corresponden a buenos números cuánticos
(ignorando el efecto de resonancias más débiles) para nuestro problema. Estos
valores resultan ser:

nr = 5üi + 3ü2 + 5^3 + ^4 + ^5 (7.4)


nt = vi + v 2 + v3 (7.5)
l ■= I4 + ¿5 (7.6 )

En las ecuaciones anteriores, n r proviene de la resonancia aproximada 5:3*5:1:1


que existe entre las frecuencias normales del acetileno, de forma que E v i b =
650 • n r en cm “ 1, y nt da cuenta del número de cuantos en las tensiones,
que al ser de alta frecuencia están muy desacopladas de las flexiones con baja
frecuencia. La matriz del hamiltoniano en la representación de modos normales
aparecería así diagonalizada en bloques por poliadas, caracterizadas por estos
números cuánticos.
Como consecuencia de lo anterior en el acetileno debe observarse una trans­
ferencia intramolecular de energía rápida correspondiente a la dinámica dentro
de cada poliada y otra más lenta correspondiente a la interacción entre po­
liadas y debida a resonancias más débiles que las consideradas anteriormente.
E sta diferencia se observa cuando se comparan experimentos de fluorescencia

358
Índice
Capítulo 7

dispersada (FD), en los que la resolución espectral es limitada y por tanto


sólo responde a los primeros estadios de la relajación vibracional, y de BEE
en los que la resolución es mayor [44]. En la figura 7.4 (a) se muestran diver­
sas progresiones de poliadas en función de la excitación en la flexión trans, z/4 ,
manteniendo constante el número de cuantos en la tensión C = C , ^2 ? obtenida
con la técnica de FD por Field y col.' [45]. En la parte (b) de la misma figura
se m uestra como en la región de alta excitación vibracional (por encima de
los 16500 cm "1) cada banda en el espectro de FD está compuesta de multitud
de picos de BEE, conteniendo más de un autoestado vibracional. Por último,
cuando se consideran niveles de excitación muy altos las líneas BEE aparecen
distribuidas en grupos o clumps como se observa en la figura 7.4 (c), donde se
m uestra el espectro BEE a ^27900 cm - 1 a dos niveles de resolución diferente
[47]. Este espectro muestra todas las características propias de los espectros
caóticos [38]: distribución tipo Wigner de los espaciados entre niveles veci­
nos, distribución tipo Porter-T hom as de las intensidades de las líneas, etc. El
cumplimiento de estas propiedades se tom a como una indicación de que ha
ocurrido una transición del régimen regular al caótico a nivel cuántico en la
dinámica subyacente. Además, el análisis del mismo [46] utilizando las técni­
cas que se describirán en la sección 7.3 m uestra la existencia de estructuras
definidas a tres escalas:

• estructuras anchas (^70 cm - 1 equivalente a ^0 .5 ps),

• clumps de ^ 7 cm - 1 de ancho, probablemente correspondientes a mezclas


de los modos V2 y ^4 , y

• estructura fina con una anchura de ^ 3 cm- 1 .

Esto indica la siguiente cadena de sucesos para la dinámica intramolecular.


En primer lugar, el paquete se reparte en ^0 .5 ps entre los estados accesibles
desde la configuración (trans) del estado electrónico excitado, después y en una
escala de tiempos de ~ 5 ps se reparte a su vez en diferentes clumps debido a
los acoplamientos entre los modos ^ 1 ,^ 2 y ^4 ? y de ahí se pasa finalmente a
una dispersión entre todos los estados vibracionales accesibles a esa energía,
lo que tiene lugar en un tiempo de ^ 1 0 ps.
' E sta característica de que las líneas espectrales se agrupen para formar pa­
trones a baja resolución se ha descrito también en otros sistemas con dinámica
caótica. Además en todos los casos se han podido asociar estos patrones
a movimientos clásicos definidos [48]. Entre ellos el ejemplo paradigmático
proviene del campo de la Física Atómica, donde G arton y Tomkins ya en 1969
[49] analizando la radiación proveniente de ciertas estrellas correspondientes

359
Índice
Capítulo 7

—1
F recu en c ia (cm )

Figura 7.4: Espectroscopia vibracional del acetileno para niveles de excitación


bajo, intermedio y alto.
(a) Espectroscopia de fluorescencia dispersada mostrando diversas progre­
siones de poliadas (adaptado de la referencia [45]).
(b) Comparación entre resultados correspondientes a las espectroscopias de
FD y BEE (adaptado de la referencia [44]). Se observa como cada banda de
DF está compuesta por m ultitud de picos de BEE, conteniendo más de un
autoestado vibracional.
(c) Resultados de espectroscopia BEE para altos niveles de excitación (~27900
cm-1 ) mostrando como las líneas aparecen distribuidas en grupos (adaptado
de la referencia [47]).

360
Índice
Capítulo 7

a estados de Rydberg (con número principal n alto) del hidrógeno en fuertes


campos magnéticos observaron la existencia de una serie de oscilaciones re­
gulares en el espectro cerca del límite de ionización. En este sistema, que
corresponde al efecto Zeeman cuadrático que se estudia en los libros de texto
para valores de n pequeños, la separación de niveles Landau (diferentes valores
de m) que tiene lugar debido al campo magnético, hace que cuando este es
suficientemente alto se produzcan numerosos cruces entre estados, de forma
que los correspondientes espectros se vuelven terriblemente complicados. Más
tarde Welge y col. [40] repitieron el experimento en el laboratorio midiendo el
espectro de excitación-ionización [H(ls) —> H ( 2 p , m = 0) — H*]. El análisis
del mismo condujo a la conclusión de que además de las oscilaciones de Gar-
ton y Tomkins existían m ultitud de otras estructuras a baja resolución que se
pudieron asignar a órbitas periódicas de complejidad creciente pertenecientes
a las mismas familias, como se m uestra en la figura 7.5.
Resultados similares se han encontrado en muchos otros casos, algunos de
los cuales pasamos a comentar:
Trímero de sodio, Ñas. W óste y col. [50] obtuvieron el espectro BEE de
esta molécula utilizando el nivel C 2 E f,(0)3/2 del estado electrónico excitado
como intermedio. En el intervalo energético 250-1200 cm - 1 el espectro consta
de dos series de picos superpuestos a un fondo caótico. Cuando se analiza
mediante transform ada de Fourier a baja resolución, aparte de los efectos de
la congestión debida a la estructura rotacional, aparecen dos picos a 40 y 135
cm "1, respectivamente. El trím ero de N a es una molécula Jahn-Teller con una
intersección cónica, cuya superficie de energía potencial presenta tres mínimos
equivalentes correspondientes a las configuraciones C 2 v La mayoría de las
estructuras relevantes en el espectro caen muy por debajo de la intersección, de
forma que pueden estudiarse utilizando la superficie electrónica fundamental y
despreciando interacciones no adiabáticas. Un análisis mediante trayectorias
clásicas [51] reveló que los responsables de los picos son toros estables de
dimensionalidad reducida correspondiente a la simetría C^v (configuración en
T). En estos toros se combinan las frecuencias de flexión (49 cm -1 ) y tensión
simétrica o “respiración” (139 cm -1 ), y son inestables respecto de la tensión
asimétrica.
H C N / H N C . La dinámica de este sistema, que es un prototipo para las
reacciones de isomerización, ha sido muy estudiado desde diversos puntos de
vista, estando disponibles superficies cuánticas muy precisas. Experimental­
mente ha sido estudiado por Lehmann y col., que midieron su espectro de
absorción hasta energías de 18000 cm- 1 , por Baronavski, que estudió la FD
del estado excitado A 1 A N mostrando esta una doble oscilación asignable a la

361
Índice
Capítulo 7

( a)

-30 -20 -10 0 10 20 30 E (cm 1 )

Figura 7.5: Espectro de excitación-ionización de la serie de Balmer del H


en un campo magnético de 5.96 T cerca del límite de ionización (a), y su
correspondiente transform ada de Fourier (b). Todos los picos de esta son
asignables a órbitas periódicas clásicas que parten del núcleo (c). Adaptado
de la referencia [40].

362
Índice
, ---------- 1---------------------4 _____________l_____________ 1
Capítulo 7

i —i...i... r...

l
i
l
i
% -
i i i i
r 1 T T i 1 T r

1
..i .......r ...... i . i , .... i i I I 1 l1 ^ i t l i i
i r 1 f— 1 I I 1

'Q8b G&*, s“V

l i l i _ i .i i i. - * « i i —1— i I \

Figura 7.6: Cicatrices inducidas por la órbita periódica de herradura en los


estados J = 0 del ion molecular . Adaptado de la referencia [55], donde
pueden encontrarse más detalles sobre el cálculo.

resonancia 3:1 entre los modos de flexión y de tensión C — iV, y por Wodtke
y col. que registraron el espectro BEE [52]. Desde el punto de vista teórico
W yatt y col. simularon este espectro [53] encontrando resultados en perfecto
acuerdo con las conclusiones experimentales.
El ion molecular . Carrington y Kennedy [54] midieron el espectro de
fotodisociación de esta especie registrando más de 27000 líneas en el rango
860-1100 cm "1, que corresponden a resonancias que decaen a través de la
barrera correspondiente a la rotación total de la molécula. El suavizamiento
de las 2 0 0 0 líneas más intensas de este espectro da cuatro bandas de ~ 4 cm " 1
de ancho separadas ~53 cm - 1 , que corresponden a una órbita periódica de
“herradura” en la que el protón pasa por el centro del enlace H —H cuando este
está en su máxima elongación y manteniendo la dirección del vector momento
angular total paralelo en todo momento a la velocidad de aquel, de forma que
se conserve la sim etría C 2 v Las cicatrices correspondientes a esta órbita en
algunas autofunciones del se muestran en la figura 7.6 [55].
Ozono. El espectro de fotoabsorción (D 1^ —> X 1 A±) del Os m uestra una
banda ancha intensa (banda de Hartley) que tiene superpuesta una serie de
oscilaciones llamativas y o tra banda más débil (banda de Huggins) a energías

363
Índice
Capítulo 7

Figura 7.7: Esquema de las curvas de potencial de las especies implicadas en


la espectroscopia de fotoextracción de electrones.

más bajas [56]. Johnson y Kinsey calcularon la probabilidad de supervivencia


[ver ec. (7.9) en la sección 7.3] a partir de los datos experimentales, encon­
trando una recurrencia a t — 128 fs que da cuenta de la mayor parte de las os­
cilaciones en la banda de Hartley y las órbitas periódicas responsables. Sin em­
bargo, trabajos posteriores han puesto en cuestión esta explicación, poniendo
de manifiesto que no es suficiente encontrar trayectorias con el período ade­
cuado para asignar un espectro utilizando la mecánica clásica [57].

H C P . Este sistema ha sido estudiado tan to por espectroscopia FD como por


BEE hasta energías próximas a la barrera de isomerización ( E y i s < 25315
cm "1) induciendo las transiciones Á 1 A" —> X 1 E + y C 1 A! X 1 E + [58].
En los espectros se han identificado numerosas poliadas correspondientes a la
resonancia 2 :1 entre la flexión [y2 ) y la tensión C —P (v3 ) y series de sobretonos
de flexión (0 , U2 , 0 ), los cuales m ostraban un cambio abrupto en el valor de la
constante rotacional B alrededor de u2 = 36. Este cambio parece ser debido
[59] a la existencia de dos tipos de estados de flexión. Unos, que podemos
denominar de flexión pura, en los que la densidad de probabilidad está bien
localizada alrededor de los isómeros (valores bajos de J5), y otros, rotantes o
isomerizantes, distribuidos a lo largo de todo el camino de mínima energía que
conecta los isómeros (valores altos de B ).

En todos los ejemplos anteriores se ha puesto de manifiesto que para nive­


les de excitación suficientemente altos, de forma que la dinámica subyacente
sea caótica clásicamente, existe una relación entre las estructuras de baja re­
solución de los correspondientes espectros y las órbitas periódicas del sistema.
En la sección 7.3 profundizaremos con más detalle en este fenómeno.

364
Índice
Capítulo 7

Figura 7.8: Esquema de un espectrómetro de fotoelectrones por tiempo de


vuelo. La especie A~ se forma en la cám ara de la izquierda a partir de un
haz molecular ( 1 ) que se bombardea con electrones (2). Los iones son después
extraidos y tras atravesar el espectrómetro de masas (sección horizontal) sufren
el proceso de fotoextracción en (6 ). Las especies neutras se detectan en (5) y
los fotoelectrones en el segundo espectrómetro de masas (8 ).

7.2.3 E sp ectro sco p ia de fo to ex tra cció n de electron es

O tra técnica espectroscópica que se basa en la preparación de paquetes de


onda no estacionarios es la de fotoextracción de electrones. Como veremos
a continuación, sólo es aplicable a sistemas que posean unas características
especiales, lo que permite entre otras cosas el estudio de sistemas bastante
poco usuales. Entre ellos, destacan los estados de transición de reacciones
bimoleculares [60], y también hay que citar los estudios sobre aniones como
(H 2 0 ) 0 H~ i R O H F ~ o los clásicos del grupo de Lineberger sobre el anión
vinilideno [61].
En la figura 7.7 se m uestra esquemáticamente la energética involucrada en
esta técnica. Se parte de la especie estable A~ a la que, mediante radiación
láser, se le extrae un electrón, pasando esta a la situación A que debe ser
disociativa. La energía traslacional tanto de los electrones arrancados como
de las especies implicadas se miden por la técnica de tiempo de vuelo, de forma
que se puede obtener información sobre los niveles vibracionales de la especie
inestable A. En la figura 7.8 se m uestra la configuración típica de esta técnica

365 Índice
Capítulo 7

experimental.
En la figura 7.9 (a) se muestran los resultados obtenidos mediante esta
técnica para la reacción / + H I donde se observan tres picos bastante marca­
dos, superpuestos a un fondo sin estructura, que corresponden (de derecha a
izquierda) a la progresión: 0 f - 0 , l f - 0 , 2 ^—0 , en uno de los modos vibracionales
del complejo de transición [IHI]$. Este modo corresponde al movimiento
asimétrico de tensión en el que el átomo ligero, if , oscila entre los más pesa­
dos y lentos, / . Debido a la gran diferencia de masas existente en este sistema
se puede hacer una separación adiabática (análoga a la de Born-Oppenheimer
para el # 2 "), y construir curvas de potencial efectivas para la dinámica del
átomo H en función de la distancia I — I. Las curvas adiabáticas de potencial
relevantes para el experimento anterior se presentan en la figura 7.9.

7 .3 F o r m u la c ió n D e p e n d i e n t e d e l T i e m p o d e la E s p e c t r o s c o p ia

La descripción habitual de los espectros electrónicos se basa en las ideas


del principio de Franck-Condon, según el cual se basa en las ideas del principio
de Franck-Gondon, según el cual los electrones, debido a su menor masa, real­
izan las transiciones de forma “vertical” , de m anera que los núcleos apenas se
mueven mientras esta tiene lugar. Dentro de esta aproximación los correspon­
dientes espectros de absorción se relacionan con los factores de solapamiento
Franck-Condon entre funciones de onda vibracionales estacionarias, sin hacer
referencia alguna al movimiento nuclear que tiene lugar una vez que se ha pro­
ducido la transición y los núcleos se encuentran en el nuevo estado electrónico
desplazados de su geometría de equilibrio y sometidos a las correspondientes
fuerzas. Sin embargo, este enfoque en el que no se tiene en cuenta de forma
directa la dinámica no es el único posible, y de hecho en este capítulo veremos
una formulación alternativa de la espectroscopia dependiente del tiempo que
es bastante popular en otras áreas de conocimiento [62].
La sección eficaz de absorción molecular para una transición (dipolar)
desde el estado inicial i al final / viene dada por:

Gis{E) = E K^IAI^ / > | 2 - E f + Ei) (7.7)

E sta expresión puede simplificarse tom ando el origen de energías en E ¡ 1 y


englobando el operador fi en los brackets (ya que se considera igual a una
constante en la aproximación de Franck-Condon), de forma que la intensidad
espectral puede expresarse en función del tiempo, utilizando la representación

366
Índice
Capítulo 7

E n e r g ía C i n é t i c a ( e V )

3.5 4 ,0 4 ,5

Figura 7.9: (a) Espectro de fotoextracción de electrones para el sistema I H I ~ ,


y (b) curvas adiabáticas correspondientes a los tres picos observados en el
mismo (adaptado de la referencia [60]).

367
Índice
& mmmmm

Capítulo 7

integral de la delta de Dirac, como:


oo

f
roo roo
= / dt eiEt/ n{<f>i{t = 0)\<f>i(t)) = / d t é Ei!h C{t) (7.8)
J—oo J —OO
donde C(t) es la función de correlación del estado inicial. E sta formulación
dependiente del tiempo de la espectroscopia tiene numerosas ventajas ya que,
por ejemplo, permite utilizar diferentes operadores o promedios en la función
de correlación dependiendo del tipo, o de las condiciones, en las que se simule
/
el espectro.
Por otra parte, y en relación con los resultados de la sección anterior,
hay que indicar que la expresión (7.8) también permite establecer una relación
entre I ( E ) y los correspondientes cálculos de trayectorias clásicas. Esto,se hace
patente sin más que expresar la probabilidad de supervivencia, S(t) = |C (¿)|2,
en función del operador densidad:

s{t) = l(<&(o)|<Mí)}|2 = (<Mo)|<MO) <<M0I<M0))


= ( M o ) \ e - ^ t/h \M o ))(M o )\^ +lÑt/hM o ))

= X ) ^ ( 0 ) l c“iiít/,il^ (0 ))< ^ (0 )le+i^ /Aln)<n l^ (0))


n

= E H p(Q) K t) \n ) = T r p Wp ( t ) (7.9)
n
La construcción de un equivalente clásico para esta expresión es sencilla, ya
que basta con hacer las siguientes sustituciones:

(7.10)

donde pcj¿sica representa una distribución (Wigner, Husimi, etc.) de condi­


ciones iniciales adecuada a las características del experimento que se quiera
simular.
Pasemos ahora a ilustrar la relación que existe entre este enfoque dinámico
de la espectroscopia y la propagación de paquetes de onda. P ara ello conside-
remos el proceso de fotodisociación que se m uestra en la figura 7.10. Supon­
dremos que para t — 0 se produce de forma instantánea la transición vertical

368
Índice
Capítulo 7

Figura 7.10: Transición electrónica entre dos superficies Born-Oppenheimer


y dinámica posterior del paquete. En la parte inferior se muestran los valores
de la correspondiente función de correlación e intensidad espectral. Adaptado
de la referencia [62].

369 Índice
Capítulo 7

desde el estado electrónico fundamental al excitado, de manera que el pa­


quete conserva su forma. En el estado superior este se desplazará, alejándose
rápidam ente del punto inicial siguiendo la línea de máxima pendiente (aproxi­
madamente a lo largo de la coordenada y), de forma que C(t) decaerá también
rápidam ente en una escala de tiempo que denotaremos por T\. A continuación,
el paquete retornará a la vecindad del punto de partida cada cierto intervalo
de tiempo, que denotaremos por T2 , en oscilaciones sucesivas marcadas por
el perfil de potencial en esta coordenada, y que harán que se observen picos
recurrentes en C(t). Finalmente, y en una escala tem poral más lenta, carac­
terizada por un valor T 3 , existe una tercera componente en la dinámica del
paquete correspondiente al movimiento a lo largo de la coordenada disociativa
x, que hace que los máximos de los picos anteriores vayan disminuyendo en
intensidad. Este com portamiento se muestra en la parte inferior de la figura
7.10. Es interesante hacer notar que de acuerdo con el principio de Ehrenfest
el movimiento del centro del paquete durante el tiempo correspondiente a las
primeras oscilaciones seguirá casi exactam ente una dinámica clásica, lo cual
explica el por qué de la existencia de una relación directa entre las estruc­
turas de baja resolución de los espectros y la dinámica clásica no lineal de las
moléculas excitadas yibracionalmente.
El proceso anterior puede también analizarse en el dominio de las energías
(o de las frecuencias). P ara ello sólo hay que tener en cuenta que C(t) y I ( E )
están relacionadas por una simple transform ada de Fourier [ver ec. (7.8)]. El
resultado de esta transformación se m uestra también en la figura 7.10, donde
puede observarse que cada estructura de C(t) se transform a en otra equivalente
en I ( E ), aunque de magnitud inversa (recuérdese que A E A t ~ H). Así, la
rápida caida inicial se transform a ahora en la envolvente global del espectro,
los picos correspondientes a las oscilaciones del paquete en la separación entre
bandas, y el decaimiento lento hacia la disociación en la anchura de cada una
de estas bandas.

7 .4 E je m p lo s

Consideremos ahora para clarificar ideas algunos ejemplos de espectros


regulares y caóticos en el caso del sistema isomerizante LiNC/LiCN.

7.4.1 M od elo y cálculos cu án ticos.

La dinámica de este sistema puede estudiarse adecuadamente mediante


un modelo de sólo dos grados de libertad, ya que el enlace triple C = N es
muy rígido, y con buena aproximación puede suponerse desacoplado del resto

370
Índice
Capítulo 7

Figura 7.11: Superficie de energía potencial de la molécula de L i C N .

de vibraciones de la molécula, lo que permite mantenerlo congelado en su


posición de equilibrio. El hamiltoniano vibracional en coordenadas de colisión
viene dado por:

H = 9- - ^ — + f ^------1
— WI + P ¡ + V( R, 6) (7.11)
2l^Li-CN \ 2 Hl í - C n R 2 ¡ I c - N ? 2,)

donde R es la distancia entre el átomo de Li y el centro de masas del fragmento


CAT, r la distancia C —N , 6 el ángulo que forman estos dos vectores, y ¡jílí-cn Y
¡ j l c - N las masas reducidas correspondientes. La superficie de energía potencial,
V (i?, 0), se m uestra en la figura 7.11 en forma de diagram a de curvas de nivel,
y ha sido tom ada de la bibliografía [16]. Asimismo, se ha incluido en esta figura
el camino de mínima energía, R e{@)i que une los mínimos correspondientes a
los isómeros L i C N (6 = 0o) y L i N C (0 = 180°), de los cuales este último es
el más estable. La barrera de energía que existe entre ellos es relativamente
modesta (3454 cm "1), por lo cual el átomo de Li puede orbitar fácilmente
alrededor del enlace C N .
Los niveles energéticos y funciones de onda vibracionales de esta molécula
han sido obtenidos utilizando el método de representación discreta de variables
de Bacic y Light [16], que se ha mostrado especialmente eficaz en el caso de
movimientos de gran amplitud. P ara dar una idea de su eficacia diremos
que con una base de ~2000 elementos se han convergido los 900 primeros
autovalores con una precisión de 0 . 1 cm - 1 .
En la figura 7.12 se muestran tres ejemplos representativos de funciones de
onda para nuestro sistema, que se han elegido todas ellas localizadas en el pozo
del isómero más estable, LiNC. La prim era (a) corresponde al estado (vr, v q ) =

371 Índice
Capítulo 7

Figura 7.12: Funciones de onda correspondientes a los estados n = 20, 83 y 24


del sistem a LiNC/LiCN.

( 1 , 1 2 ) y m uestra una distribución regular de planos nodales con la densidad de


probabilidad distribuida a lo largo del camino de mínima energía, la segunda
(b), por el contrario, es totalm ente irregular, y finalmente en (c) se muestra
una función de “cicatriz” caracterizada por estar fuertemente localizada a lo
largo de una órbita periódica del sistema que se intuye siguiendo la línea que
forman los máximos y mínimos de esta función.

7.4.2 E xp loran d o el E spacio de Fases con P aq u etes de O nda


En esta sección consideraremos algunos ejemplos de espectros generados a
partir de un paquete gausiano de la forma:

10(0)) = (aRag)1/2 e x p [ - a 2R (R - R 0)2/2 h ] e x p [ -a j(6 - 60)2/2h] (7.12)

donde (Rq, 9q) determ ina la posición inicial del mismo, y los parám etros c¿r
y olq se eligen (8.03 y 7.51 respectivamente) de forma que el paquete presente
mínima incertidumbre (A q • A P = Ti). La propagación del paquete puede
realizarse de forma muy sencilla en nuestro caso (en que todas las coordenadas
tienen una parte ligada) proyectando sobre los autoestados, |n), del sistema,
de m anera que:

im = = E i«> w ( ° ) > e~iEnt/n (7-13)


n

En primer lugar consideremos un paquete situado inicialmente en (J?o, #o) =


(3.8 u.a., 142°), que corresponde a un punto localizado relativamente cerca
del isómero L i N C (ver figura 7.11), pero de forma que el paquete adquiera

372
Índice
Capítulo 7

Figura 7.13: Espectro regular para el sistema LiNC/LiCN generado a partir


de un paquete gausiano situado inicialmente en (R q,9 q) = (3.8 u.a., 142°).

cierta excitación, tanto en la tensión como en la flexión, a medida que tiene


lugar el movimiento. El correspondiente espectro se m uestra en la figura
7.13. Se observa la existencia de tres series de líneas de espaciado apro­
ximadamente constante, que cuando se analizan corresponden a los estados
(vR = 0,ve = 2,4, 6 , 8 ), (vfí = l,vg = 2, 4, 6 , 8 ) y (vR = 2,ve = 2 ,4 ,6 ), respec-
tivamente. Este caso corresponde a un espectro regular, tal como se describió
en la Introducción.
En segundo lugar vamos a considerar un caso más excitado en energía,
en el régimen que corresponde a una dinámica caótica. P ara ello situamos el
paquete inicialmente en ( R q , 0 o) = (4.8 u.a., 55°), en la vecindad del punto de
silla de la superficie de energía potencial. El resultado se muestra en la figura
7.14. Se observa que en este caso el espectro obtenido es mucho más com­
plicado, y m uestra todas las características de los espectros caóticos, con una
distribución irregular de espaciados entre líneas y de intensidades. Sin em­
bargo, y como discutimos en la sección 7.2 se aprecia que estas líneas aparecen
agrupadas, de forma que cuando se considera una versión de baja resolu­
ción del espectro anterior, obtenida por ejemplo convolucionando las líneas
con funciones Lorentzianas, se obtiene una serie de bandas aproximadamente
equiespaciadas (ver línea continua superpuesta en la figura 7.14), que con­
forman un espectro mucho más simple. Por otro lado, este nuevo espectro
tiene la apariencia de un espectro de resonancias, en el que cada línea pre­
senta una anchura relacionada con su vida media. Esto es lógico si tenemos
en cuenta que hemos colocado el paquete inicialmente en la zona del punto de
silla que corresponde al estado de transición de la reacción de isomerización
L i N C <->• L i C N . Así, en esta interpretación de espectro de resonancias, el

373
Índice
Capítulo 7

(t) ¡¡O.; M (

' % <C)'
«
«4
M : ^ <•>
7**
11 ■-"¿í
H

J
i 1 / iy i
\ f
d
1 J L lI d Jijlllll
4000 6000 , 0000-, 7000 B000
E(cm )

Figura 7.14: Espectro irregular para el sistem a LiNC/LiCN generado a partir


de un paquete gausiano situado inicialmente en ( R q ^Oq) = (4.8 u.a.,55°).

camino de mínima energía juega el papel de coordenada del continuo, mien­


tras que la perpendicular hace de coordenada ligada. E sta hipótesis puede
ser sometida a una comprobación más rigurosa. En la medida en que la in­
terpretación anterior sea correcta, serán aplicables las técnicas estándar de la
teoría de resonancias para calcular las funciones de onda correspondientes a
cada banda. Según la teoría de Fano esto puede llevarse a cabo utilizando
proyectores en el subespacio correspondiente a cada resonancia:
BANDA
qjBANDA _ £ |n)(n|¿(0)> (7.14)
n

Los resultados relativos a las seis bandas que aparecen en el espectro de la


figura 7.14 se muestran en la parte superior de la figura 7.14. Como se puede
observar las funciones de banda corresponden a estructuras localizadas sobre
el punto de silla de la superficie de potencial, y con una excitación creciente a
lo largo de la coordenada perpendicular que coincide aproximadamente con R.
Estos estados se corresponden, por tanto, con los distintos estados excitados
del complejo de transición para la reacción de isomerización.
P ara term inar, vamos a analizar las estructuras de baja resolución que

374
Índice
Capítulo 7

La

ib uáa
0 199 4M m <0°

Figura 7.15: Probabilidad de supervivencia cuántica (izquierda) y clásica


(derecha) correspondiente al espectro del L i N C / L i C N de la figura 7.14.

aparecen en el espectro de la figura 7.14 a la luz de la mecánica clásica Para


ello presentamos en la figura 7.15 la probabilidad de supervivencia del pa­
quete inicial calculada cuántica [ver ec. (7.9)] y clásicamente [ver ec. (7.10)].
Al com parar ambas figuras se observa que la posición de los picos coincide
para tiempos menores de ^300 ps, mientras que la concordancia en las alturas
(relativas) se pierde mucho antes (t > 150 ps). La razón de esta discrepan­
cia radica en el hecho de que la dinámica clásica es mucho más caótica que
la cuántica (el paquete inicial se reparte entre un número finito de estados
mientras que el espacio de fases clásico es continuo). Esto significa que la
mecánica clásica proporciona la información suficiente como para reproducir
las estructuras que existen en el espectro de la figura 7.14 a baja resolución,
viniendo esta definida por el tiempo de 150 ps referido anteriormente. Esto
presenta una ventaja adicional, y es que podemos aprovecharnos del hecho
de que la descripción clásica es intuitiva, para profundizar en la comprensión
de este espectro. La técnica consiste en analizar cuales son las trayectorias
que contribuyen con un mayor peso a la integral que aparece en la ec. 7.10.
Los resultados indican que las trayectorias con mayor peso son en todos los
casos muy próximas a las órbitas periódicas correspondientes al punto fijo
situado en el punto de silla de la superficie de potencial, y que se han dibujado
superpuestas a las funciones de onda del estado de transición en la figura 7.14.

A g r a d e c i m ie n t o s

Este trabajo ha sido financiado por la DGES a través de los proyectos No. PB96-
76 y PB98-115.

375
Índice
Capítulo 7

Bibliografía
[1] E.B. Wilson Jr., J.C. Decius y P .C. Cross, Molecular Vibrations. The
Theory o f Infrared and Raman Vibrational Spectra (Dover, NY, 1980).

[2] G. Herzberg, Molecular Spectra and Molecular Structure II. Infrared and
Raman Spectra o f Polyatomic Mole cuto(Van Nostrand., Princeton, 1964).

[3] R.M. Stratt, N.C. Handy y W.H. Miller, J. Chem. Phys. 71, 3311 (1979).
I
[4] V.S. Letokhov (ed.), Laser Spectroscopy o f Highly Vibrationally Excited
Mole cules (Adams Hilger, New York, 1989).

[5] H.L. Dai y R.W. Field (eds.), Extracting D ynamical Information from
Complex and Congested Spectra: Statistics, Pattern Recognition and Par­
simonious Trees, Molecular Dynamics and Spectroscopy by Stimulated
Em ission Pumping (W orld Scientific, Singapore, 1994).

[6] H.L. Dai y R.W. Field (eds.), M olecular Dynamics and Spectroscopy by
S E P (W Orld Scientific, Singapore, 1995).

[7] R. Schienke, Photodissociation Dynamics (Cambridge University Press,


Cambridge, 1992).

[8] T. Uzer, Phys. Rep. 199, 75 (1991); S. A. Schofield, P. G. Wolynes and


R. E. Wy att, Phys. Rev. Lett.74, 3720 (1995).

[9] C. Jaffé y P. Brumer, J. Chem. P h y s .73, 5646 (1980); E.L. Sibert III,
W.P . Reinhardt y J.T. Hynes, J. Chem. Phys.77, 3583 (1982).

[10] V.B. Chirikov, Phys. Rep. 52, -263 (1979).

[11] R.B. Metz, J.D. Thoemk e, J.M. Pfeiffer y F.F. Crim,X Chem.Phys. 99,
1744 (1993); A. Sinha, J.D. Thoemke y F.F. Crim,ibid. 96, 372 (1992).

[12] L.E. Reichl, The Transition to Chaos in Conservative Classical Systems:


Quantum M anifestations (Springer-Verlag, New York, 1992).

[13] M.J. Da vis, J. Chem. Phys. 83, 1016 (1985).

[14] E.J. Heller, J. Chem. Phys. 62, 1544 (1975).

[15] C. Leforestier et al., J. Comput. Phys. 94, 59 (1991).

[16] Z. Bacic y J. Light, Ann. Rev. Phys. Chem. 40, 469 (1989).

376
Índice
Capítulo 7

[17] D.T. Colbert y E.L. Sibert III, J. Chem. Phys. 91, 350 (1989).

[18] E.J. Heller, Phys. Rev. Lett. 53, 1515 (1984).

[19] E.J. Heller, Chaos and Quantum Physics, editado por M. Giannoni, A.
Voros, y J. Zinn-Justin (Elsevier, Amsterdam, 1991).

[20] F .J. Arranz, F. Borondo y R.M. Benito, Phys. Rev. Lett. 80, 944 (1998).

[2 1 ] L. Kaplan, Nonlinearity, 12 , R 1 (1999).

[2 2 ] H. Goldstein, Classical Mechanics (Addison-Wesley, Reading, 1980).

[23] S.W. McDonald y A.N. Kaufmann, Phys. Rev. Lett. 42, 1189 (1979);
Phys. Rev. A 37, 3067 (1988).

[24] V.I. Arnold y A. Avez, Ergodic Problems of Classical Mechanics (W.A.


Benjamin, New York, 1968).

[25] M.V. Berry, J. Phys. A, 1 0 , 2083 (1977); A. Voros, en Stochastic Be­


haviour in Classical and Quantum Hamiltonian System s, editado por G.
Casati y J. Ford (Springer, Berlin, 1979).

[26] A.I. Shnirelman, Ups. M at. Nauk. 29, 181 (1974).

[27] P.B. Wilkinson, T.M. Fromhold, L. Eaves, F.W .Sheard, N. M iura y T.


Takamasu, Nature (London) 380, 608 (1996).

[28] G.G. de Polavieja, F. Borondo y R.M. Benito, Phys. Rev. Lett. 73, 1613
(1994); F .J. Arranz, F. Borondo y R.M. Benito, J. Chem. Phys. 80,
944 (1998); F. Borondo y R.M. Benito, en Wavepackets in Physics and
Chemistry, editado por J. Yeazell y T. Uzer (John Wiley, New York,
2000).

[29] H.J. Stockmann, Quantum Chaos: A n Introduction (Elsevier, Amster­


dam, 1999); M.C. Gutzwiller, Chaos in Classical and Quantum Mechanics
(Springer, New York, 1990).

[30] K.V. Reddy, D.F. Heller y M .J. Berry, J. Chem. Phys. 76, 2814 (1982).

[31] E.L. Sibert III, W.P. Reinhardt y J.T . Hynes, J. Chem. Phys. 81, 135
(1984); ibid. 1115 (1984).

[32] M. Lewerenz y M. Quack, J. Chem. Phys. 88 , 5408 (1988).

377
Índice
Capítulo 7

[33] A. G arcía-Ayllon y J. Santam aria, Chem. Phys. 141, 197 (1990).

[34] P.E. Fleming, M. Li y T.R. Rizzo, J. Chem. Phys. 94, 2425 (1991).

[35] G.C. Schatz y M.A. R atner, Quantum Mechanics in Chemistry (Prentice


Hall, Englewood Cliffs, 1993); J.Z.H. Zhang, Theory and Applications of
Quantum Molecular Dynamics (World Scientific, Singapore, 1998).

[36] A.H. Zewail (ed.), The Chemical Bond. Structure and Dynamics (Aca­
demic Press, Boston, 1992).

[37] J.M . Gomez-Llorente y E. Poliak, Annu. Rev. Phys. Chem. 43, 91 (1992).

[38] T.A. Brody, J. Flores, J.B. French, P.A. Mello, A. Pandey, S.S.M. Wong,
Rev. Mod. Phys. 53, 385 (1981).

[39] O. Bohigas, M.J. Giannoni y C. Schmit, Phys. Rev. Lett. 52, 1 (1984).

[40] J. Main, G. Wiebusch, A. Holle y K.H. Welge, Phys. Rev. Lett. 57, 2789
(1986); G. Wiebusch, J. Main, K. Krüger, H. Rottke, A. Holle y K.H.
Welge, Phys. Rev. Lett. 62, 2821 (1989).

[41] R. Prosm iti y S.C. Farantos, J. Chem. Phys. 103, 3299 (1995); A.B.
McCoy y E.L. Sibert III, J. Chem. Phys. 105, 469 (1996); M. Joyeux, J.
Chem. Phys. 109, 2 1 1 (1998); M.P. Jacobson, J.P. O ’Brien, R.J. Silbey y
R.W. Field, J. Chem. Phys. 109, 121 (1998); M.P. Jacobson, R.J. Silbey
y R.W. Field, J. Chem. Phys. 1 1 0 , 845 (1999).

[42] J.F . Stanton y J. Gauss, J. Chem. Phys. 110, 1831 (1999).

[43] I.N. Levine, Molecular Spectroscopy (John Wiley and Sons, New York,
1975), pags. 271-279.

[44] K. Yamanouchi, N. Ikeda, S. Tsuchiya, D.M. Jonas, J.K. Lundberg, G.W.


Adamson y R.W. Field, J. Chem. Phys. 95, 6330 (1991).

[45] S.A.B. Solina, J.P. O ’Brien, R.W. Field y W .F. Polik, Ber. Bunsen~Ges.
Phys. Chem. 99, 555 (1995).

[46] J.P. Pique, Y.M. Engel, R.D. Levine, Y. Chen, R.W. Field y J.L. Kinsey,
J. Chem. Phys. 8 8 , 5972 (1988).

[47] E. Abramson, R.W. Field, D. Imre, K.K. Innes y J.L. Kinsey, J. Chem.
Phys. 83, 453 (1985).

378
Índice
Capítulo 7

[48] J.M . Gomez-Llorente and E. Poliak, Ann. Rev. Phys. Chem. 43, 91
(1992); H.S. Taylor, Acc. Chem. Res. 2 2 , 263 (1989).

[49] W.R.S. G arton y F.S. Tomkins, Astrophys. J. 158, 839 (1969).

[50] M. Broyer, G. Delacretaz, G.Q. Ni, R.L. W hetten, J.P. Wolf y L. Wöste,
Phys. Rev. Lett. 62, 2100 (1989).

[51] J.M . Gomez-Llorente y H.S. Taylor, Phys. Rev. Lett. 62, 2096 (1989).

[52] A.M. Smith, S.L. Coy, W. Klemperer y K.K. Lehmann, J. Mol. Spectrosc.
134, 134 (1989); A.P. Baronavski, Chem. Phys. Lett. 61, 532 (1979); X.
Yang, C.A. Rogaski y A.M. Wodkte, J. Chem. Phys. 92, 2 1 1 1 (1990).

[53] J. A. Bentley, C.-M . Huang y R.W. W yatt, J. Chem. Phys. 98, 5207
(1993); J.A . Bentley, J.P. Brunet, R.E. W yatt, R.A. Friesner y C. Lefor-
estier, Chem. Phys. Lett. 161, 393 (1989).

[54] A. Carrington y R.A. Kennedy, J. Chem. Phys. 81, 91 (1984).

[55] O. Brass, J. Tennyson y E. Poliak, J. Chem. Phys. 92, 3377 (1990).

[56] D.E. Freeman, K. Yoshino, J.R. Esmond y W.H. Parkinson, Planet. Space
Sei. 32, 239 (1984).

[57] B.R. Johnson y J.L. Kinsey, Phys. Rev. Lett. 62, 1607 (1989); F. LeQuere
y C. Leforestier, J. Chem. Phys. 94, 1118 (1991).

[58] H. Ishikawa, Y - T . Chen, Y. Ohshima, J. Wang y R.W. Field, J. Chem.


Phys. 105, 7383 (1996); H. Ishikawa, C. Nagao, N. Mikami y R.W. Field,
J. Chem. Phys. 106, 2980 (1997).

[59] S.C. Farantos, H.-M . Keller, R. Schienke, K. Yamashita y K. Morokuma,


J. Chem. Phys. 104, 10055 (1996).

[60] S.E. Bradforth, A. Weaver, D.W. Arnold, R.B. Metz y D.M. Neumark,
J. Chem. Phys. 92, 7205 (1990); A. Weaver, R.B. Metz, S.E. Bradforth
y D.M. Neumark, J. Phys. Chem. 92, 5558 (1988).

[61] S.M. B urnett, A.E. Stevens, C.S. Feigerle y W.C. Lineberger, Chem.
Phys. Lett. 1 0 0 , 124 (1982).

[62] E.J. Heller, Acc. Chem. Res. 14, 368 (1981); J.R . Reimers, K.R. Wilson
y E.J. Heller, J. Chem. Phys. 79, 4749 (1983).

379
Índice
«Ciéncies experimentáis»
Núm. 2

QUÍMICA TEÓRICA
Y COMPUTACIONAL
Juan Andrés, Juan Beltrán
(Editores)

si
UNIVERSITAT
JAUME‘ I
CAPÍTULO 8
Espectroscopia II: Introducción al Cálculo
Teórico de Estados Excitados Electrónicos
mediante Métodos Multiconfiguracionales
Manuela Merchán
Departamento de Química Física
Universität de Valencia
Dr. Moliner 50, Burjassot, 46100 Valencia

8.1. Introducción

La obtención, desde una perspectiva ab initio, de la solución exacta de la


ecuación de Schrödinger independiente del tiempo para sistemas moleculares,
dentro de la aproximación de Born-Oppenheimer y obviando efectos relativistas,
ha sido la motivación subyacente para el dinámico desarrollo de métodos
químico-cuánticos al que hemos asistido desde los albores de la era cuántica, una
vez establecido el comportamiento mecano-cuántico de la materia.

El concepto de función monoelectrónica ha jugado un papel ciertamente


relevante en ese largo recorrido. De hecho, en él se basan la mayoría de los
métodos químico-cuánticos desarrollados hasta la fecha. Los estados electrónicos
se expresan mediante una doble expansión. Los orbitales moleculares (MOs),
funciones unipartícula, se expanden en términos de un conjunto de base de
orbitales atómicos (AOs) y la función de onda describiendo el sistema de N
electrones se formula en un conjunto de base formado por determinantes,
construidos como productos antisimetrizados normalizados de orbitales
moleculares. En principio, se puede obtener la solución exacta a la ecuación de
Schrödinger si la base de AOs es completa y si se consideran todos los posibles
determinantes que se pueden obtener a partir de todas las posibles ocupaciones
de los correspondientes MOs. Por supuesto, ese tipo de cálculos no es viable en la
actualidad. En aplicaciones reales la base monoelectrónica debe truncarse. No
obstante, si se consideran todas las funciones N-electrónicas posibles, dentro de la
flexibilidad brindada por una base monoelectrónica finita, se puede resolver la
ecuación matricial de valores propios en ese espacio. La soluciones resultantes se
denominan “full configuration interaction ” (FCI), es decir, las soluciones
“exactas” para el espacio expandido por la base dada. A pesar del gran avance
de la tecnología FCI realizado en los últimos años, sólo es posible acceder a
resultados FCI para sistemas de pequeño tamaño molecular. Por lo que entramos,
desafortunadamente, en el contexto de las truncaciones: habrá que limitar tanto el
número de funciones monoelectrónicas como multielectrónicas a considerar.
Estas dos limitaciones son las fuentes de imprecisión más importantes en los
cálculos químico-cuánticos. El tipo de truncaciones realizadas junto con las

381
Índice
Capítulo 8

técnicas utilizadas (teoría de variaciones, de perturbaciones, combinación de


ambas, ...) configura la mayoría de los métodos químico-cuánticos más
utilizados.

Dado que el estado fundamental de un gran número de moléculas en la


geometría de equilibrio y en sus cercanías queda bien descrito cualitativamente
mediante una sola configuración electrónica (capa cerrada o abierta), no es de
extrañar que se haya realizado un gran esfuerzo en el desarrollo de tratamientos,
tales como MP2 y "coupled cluster” (CC), en los que el punto de partida es la
determinación de la función de onda Hartree-Fock (HF). En general, la situación
es diferente para los estados electrónicos excitados, cuya descripción requiere de
varias configuraciones. Sucede lo mismo para el estado electrónico fundamental
en conformaciones alejadas de su geometría de equilibrio (estados de transición
(TS) en reacciones químicas, por ejemplo). Es lógico, por tanto, estimar que un
método químico-cuántico truncado en el espacio N-electrónico que pretenda
aproximarse a la descripción cuantitativa de dichas situaciones, donde dos o más
configuraciones son igualmente relevantes, deba contemplar la naturaleza
multiconfiguracional de la estructura electrónica. Una forma de hacerlo es
mediante la aproximación “multiconjígurational self-consistent fie ld ” (MCSCF),
incluyendo explícitamente varias configuraciones en el proceso SCF, llevándose a
cabo la determinación variacional óptima tanto de los coeficientes de la
expansión de configuraciones como de los orbitales implicados en las mismas.
En el caso de una sola configuración, el proceso MCSCF sería equivalente al
modelo más común utilizado en química cuántica: la teoría Hartree-Fock (Szabo,
1982).

Un tipo de métodos MCSCF que se ha popularizado ampliamente por su


simplicidad técnica y conceptual es el denominado “complete active space SC F”
(CASSCF) (Wemer, 1987; Shepard, 1987; Roos, 1987). En él, el espacio
configuracional queda especificado por el número de orbitales activos y
electrones activos con los que se forman todas las posibles configuraciones
consistentes con una simetría espacial y de espín dadas. Normalmente, a nivel
CASSCF se tiene en cuenta la correlación estática, de largo alcance, describiendo
el efecto de cuasidegeneraciones entre varias configuraciones. El resto, la
correlación dinámica, que refleja la interacción electrón-electrón de corto
alcance, se puede aproximar bien mediante métodos variacionales como “multi-
reference CV* (MRCI) o empleando teoría de perturbaciones mediante, por
ejemplo, el método CASPT2 ( “complete active space perturbation theory to
second order”) (Andersson, 1990, 1992a).

Así, según el número de configuraciones inicialmente consideradas, podemos


distinguir:
• Métodos monoconfiguracionales. Normalmente están basados en una
referencia HF, la cual determina los MOs. Para el tratamiento de la
correlación electrónica se utilizan técnicas CI, CC o MP. Pueden dar
resultados muy precisos, por ejemplo, en el caso de las aproximaciones
CCSD(T) y relacionadas. En general, la aplicación de los mismos
queda limitada al caso de que una sola función de referencia sea
adecuada para la descripción del proceso químico en estudio.

382
Índice
Capítulo 8

• Métodos multiconfiguracionales. Parte de la correlación se incluye ya


en la referencia (correlación estática, cuasidegeneraciones, ...), la cual
suele ser una función MCSCF y ésta determina los MOs. Los efectos
restantes de correlación electrónica se tratan mediante aproximaciones
MRCI, MRCC o MCPT. No tiene un límite tan restringido en las
aplicaciones (estado fundamental, estados excitados, TS, ...).

La aproximación CASSCF/MRCI suele ser costosa, y a menudo impracticable, ya


que una selección satisfactoria de las configuraciones de referencia conlleva el
uso de grandes recursos de computación. Por otro lado, desde hace casi una
década, la teoría de perturbaciones monoreferencial a segundo orden con una
función de referencia multiconfiguracional CASSCF, es decir, la aproximación
CASSCF/CASPT2, se ha mostrado como una alternativa viable, rindiendo una
relación calidad/costo de los resultados ventajosa.

El presente capítulo pretende introducir al lector(a) en la metodología


CASSCF/CASPT2, incluyendo las recientes extensiones de la misma, haciendo
especial énfasis en el correcto cómputo de propiedades espectroscópicas. Para tal
fin, una vez expuestos los fundamentos metodológicos correspondientes, se
ilustrará su aplicación con el cálculo de los estados excitados de la molécula de
eteno. Los listados correspondientes a los resultados aquí analizados se ofrecerán
en el transcurso del curso.

La experiencia acumulada en el campo de la espectroscopia teórica haciendo uso


de la metodología CASSCF/CASPT2 es amplia y cada día crece el número de
contribuciones salidas de diversos grupos internacionales, lo cual es en parte un
reflejo del interés suscitado por los estados excitados debido a su implicación en
áreas tan importantes como fotoquímica, reactividad en fase gas, etc. Como
muestra de tales estudios recomiendo para una segunda fase de estudio, una vez
asimilada la información aquí recogida, la lectura de los trabajos de revisión
recientes (Roos, 1995b, 1996c; Merchán, 1998, 1999b). En ellos se muestran un
gran número de resultados sobre espectros moleculares, tanto para sistemas
orgánicos básicos, como para complejos inorgánicos, incluyendo metales de
transición. Asimismo, los trabajos de Tesis Doctorales llevados a cabo tanto sobre
el desarrollo teórico en sí del método (Andersson, 1992b), como en el aspecto de
sus aplicaciones (Serrano-Andrés, 1994b; Pou-Amérigo, 1995a; Rubio, 1996),
serán de gran ayuda a la hora de realizar una profundización más exhaustiva
sobre el tema. Cómo no, el propio manual del programa MOLCAS (Andersson,
1997), junto con su contribución de tutorías son un paso obligado cuando se
trata de resolver problemas técnicos (y no tan técnicos).

8.2. Cuestiones

Antes de proseguir con la lectura/estudio de este capítulo recomiendo


encarecidamente reflexionar sobre las siguientes cuestiones.
8.1. ¿Qué entendemos por la aproximación Hartree-Fock?
8.2. ¿Cuáles son las diferencias entre los formalismos RHF, OSRHF y UHF?
Analizar sus bondades y limitaciones.

383
Índice
Capítulo 8

8.3. Se suele decir que los orbitales virtuales canónicos obtenidos de un cálculo
RHF para un sistema molecular neutro son muy difusos: ¿por qué?
(Merchán, 1987).
8.4. Enumerar las clases dé conjuntos de bases monoelectrónicas y
multielectrónicas que se conozcan.
8.5. Recordar los fundamentos del formalismo de la segunda cuantización
(Szabo, 1982).
8 . 6 . ¿Qué es un operador de proyección? Ilustrar sus propiedades mediante
ejemplos.
8.7. Correlación electrónica: sentido físico y su (posible) definición matemática.
Particiones factibles de los efectos de la correlación electrónica. ¿Qué se
entiende por correlación izquierda-derecha? Y, ¿correlación de valencia?
8 .8 . Recordar brevemente los fundamentos del método variacional y de la teoría
de perturbaciones (Levine, 1977). ¿Qué entendemos por un cálculo SDCI?
Y, ¿MP2? Qué significado tienen los correspondientes acrónimos. (Como
ya se habrá observado, he seguido el criterio de mantener la estructura de
las siglas en inglés, tal y como se manejan en el trabajo diario, evitando así
posibles confusiones innecesarias.)
8.9. El reciente libro de texto de Veszprémi y Fehér titulado “Quantum
Chemistry: Fundamentáis to Applications”, dedica el capítulo 17 al estudio
de estados electrónicos excitados (Veszprémi, 1999). Comparando el
contenido de dicho capítulo con la introducción precedente, enumerar qué
métodos no he mencionado, describiendo brevemente sus características.

8.3. El método CASSCF

La derivación de la expresión de la energía MCSCF se suele realizar, dentro del


formalismo de la segunda cuantización, en función de los operadores de
excitación promediados para el espín (Roos, 1980, 1982), definidos como:

E ij5 partimos de la expresión del Hamiltoniano en función de los operadores de


creación y aniquilación, que utilizando la notación física es (ver por ejemplo
Szabo, 1982):
(8 .2 )
donde la suma se extiende sobre todo el conjunto de espín orbitales. La ec. (8.2)
en notación química resulta:
1
(8.3)
Finalmente, sumando sobre el espín tenemos:
1 * ,
(8.4)

(8.5)
donde los índices corren ahora sobre los orbitales moleculares. En la expresión
(8.5) los elementos h.. incluyen la energía cinética de los electrones y los

384
Índice
Capítulo 8

términos de atracción núcleo-electrón; las integrales dielectrónicas de los


orbitales moleculares, en notación química, se representan por g¡jkl.

Para una función normalizada CI del tipo


W -Jcjm ), . (8.6)
expandida en la base de determinantes, obtenemos la energía como el valor
expectación del Hamiltoniano (8.5),
E = (V|H| W) = 2 h, y cm(m|É..|n)c„ + i Y gijkl \ cm(m |É„Ékl - | n)c„ =
ij ffll ijk 1 m n

Tj rtrn ¡ jT I rtrn

= J h Sjü, + P,kl (8.7)


siendo:
D™ = (mIÉjJn), los coeficientes de acoplamiento monoelectrónicos, con valores
- 1, 0 , 1 , 2 cuando se consideran determinantes de Slater, como es el caso,
P¡jli = “ (m |É¡jÉkl - 6 jkÉn|n), los coeficientes de acoplamiento dielectrónico,
D¡j = y c;D Jnc0, elemento de la matriz de densidad reducida de primer orden,

Pijkl = T c:P .m
Jcn, matriz de densidad reducida de segundo orden.
mn

La expresión de laenergía(8.7)dalas clavesparala derivación de los métodos


de optimización MCSCF.Obsérvesequela información acerca de los orbitales
moleculares está contenida completamente en las integrales mono y
dielectrónicas. Por otro lado, las matrices D y P contienen la información acerca
de los coeficientes CI. Así, los parámetros a variar son los coeficientes CI y los
MOs, considerándose sus variaciones como rotaciones en un espacio vectorial
ortonormalizado. Para ello es apropiado recordar que la expresión más general
de una matriz unitaria viene dada como exponencial de una matriz antiHermítica
(véase la cuestión 8.13), pues es mediante ese tipo de matrices como se realizan
las rotaciones en el proceso de optimización de los parámetros variacionales de la
función MCSCF. Las técnicas concretas para llevar a cabo dicha optimización
son diversas. En general se pueden clasificar en métodos de primer y segundo
orden, dependiendo del tipo de convergencia. Un tratamiento de primer orden se
basa únicamente en el cálculo de la energía y su primera derivada respecto a los
parámetros variacionales. Los métodos MCSCF de segundo orden están basados
en una expansión de la energía a segundo orden, considerándose las primeras y
segundas derivadas. La aproximación Newton-Raphson de segundo orden, donde
la energía se expande en serie de Taylor en los parámetros variacionales, es
probablemente el método más prominente. La expansión se trunca a segundo
orden y los nuevos valores de los parámetros se obtienen resolviendo el
correspondiente sistema de ecuaciones lineales. El proceso de convergencia
resulta muy rápido en las proximidades de la solución final, al converger
cuadráticamente, aunque el radio de convergencia es extremadamente pequeño.
Es el método de optimización estándar y la mayoría de los otros métodos se
pueden relacionar con él bien como modificaciones del mismo, bien como
algoritmos simplificados. La literatura recoge ampliamente los detalles concretos

385
Índice
Capítulo 8

de las técnicas (Werner, 1987; Shepard, 1987;; Roos, 1987). Una excelente
introducción a las mismas se puede encontrar en el material de la escuela de
verano ESQC “European Summer School in Quantum Chemistry” (Roos, 1992,
1994).

Desde el punto de vista práctico la elección de un algoritmo concreto dependerá


de las necesidades de la aplicación en curso. No es extraño que un algoritmo de
segundo orden nos lleve a una convergencia no deseada, en especial cuando los
vectores de prueba suministrados no son los más adecuados. Eso sí, en las
cercanías del mínimo unas pocas iteraciones son suficientes para alcanzarlo
(convergencia cuadrática), aunque una iteración completa es relativamente más
costosa en tiempo de cálculo que en otros esquemas aproximados. Por otro lado,
en un método de segundo orden se caracteriza el punto estacionario, es decir, la
condición de mínimo queda asegurada. En resumen, se deben sopesar las ventajas
relativas entre ambos tipos de algoritmos a la hora de decidir su utilización en un
estudio concreto. Probablemente hay tantas opiniones al respecto como grupos
involucrados en los correspondientes desarrollos metodológicos. En mi opinión,
dado los medios de cálculo hoy disponibles, dicha elección no es tan
determinante como lo es la apropiada elección de los orbitales iniciales, dados
por el usuario, que se utilizan como punto de partida para el proceso de
optimización MCSCF.

Hemos supuesto hasta ahora quq la base N-electrónica está constituida por
determinantes de Slater. No obstante, tanto el Hamiltoniano como las rotaciones
orbitales se pueden expresar en términos de los operadores de excitación orbital
(8.1). Además, los operadores de excitación conmutan con los operadores de
espín (ver cuestión 8.14). Por tanto, es posible trabajar enteramente en una base
N-electrónica formada por funciones de estado configuracionales adaptadas de
espín, “configuration state functions” (CSFs). Hay muchas formas de obtener
funciones propias de los operadores de espín a partir de determinantes de Slater.
Entre ellos destaca el “graphical unitary group approach ” (GUGA). De hecho
los operadores de excitación cumplen las mismas relaciones de conmutación que
los generadores del grupo unitario de dimensión n, y por eso a menudo se les
denomina generadores. Trabajar en base de CSFs lleva a expansiones CI más
cortas, aunque en base de determinantes de Slater los algoritmos CI son más
eficientes (ver por ejemplo Olsen, 1990). La conveniencia del tipo de base N-
electrónica (CSFs o determinates de Slater) en los algoritmos MCSCF y CI ha
sido objeto de grandes debates en el pasado. Hoy en día, se ha llegado a un cierto
consenso con gran lógica, cual es hacer uso práctico de las ventajas de ambos
tipos de base. Así, por ejemplo, los algoritmos implementados de hecho en el
programa MOLCAS realizan la parte CI en base de determinantes y las
rotaciones orbitales en base de CSFs, asegurando de esta forma que la función
N-electrónica sea función propia de espín. Para ello, es necesario disponer de una
forma eficiente y sencilla de realizar el cambio de base CSFs ^determ inantes de
Slater (Grabenstetter, 1976).

Como he mencionado anteriormente, el método CASSCF es probablemente el


método MCSCF más utilizado hoy en día. En el método CASSCF los orbitales se
clasifican en tres tipos, dependiendo del papel que juegan en la construcción de

386
Índice
Capítulo 8

la función de onda multielectrónica: orbitales inactivos, activos, y secundarios.


Los orbitales inactivos y activos están ocupados en la función de onda, mientras
que los orbitales secundarios, también denominados externos o virtuales,
constituyen el resto del espacio orbital, fijado por el conjunto de base
monoelectrónica utilizada para construir los orbitales moleculares. En todas las
configuraciones que se usan en la función CASSCF, los orbitales inactivos están
doblemente ocupados. El número de electrones ocupando estos orbitales es, por
tanto, el doble del número de orbitales inactivos. El resto de los electrones
(llamados electrones activos) ocupan los orbitales activos. La función de onda
CASSCF se forma mediante una combinación lineal de todas las configuraciones
posibles que se pueden construir entre los orbitales activos y electrones activos,
consistentes con la simetría espacial y de espín requerida. Es decir, en el espacio
configuracional expandido por los orbitales activos, la función CASSCF es
completa ( “fu ll”). Los orbitales inactivos también se optimizan en el proceso
variacional; digamos que son tratados como en la función RHF. La energía
CASSCF es invariante a rotaciones entre los orbitales activos (aunque no ocurre
así con la función de onda).

Con objeto de obtener varios estados de una simetría dada se suele realizar
cálculos CASSCF promediados, donde se define un funcional de energía que es
un promedio de varios estados (1=1, M)
Epromcdiü= ( 8 .8 )
donde co, son los factores de peso relativo para cada estado. El resultado de un
cálculo CASSCF promediado es un conjunto único de orbitales promedio y un
número de funciones de onda CI igual al número de raíces usadas en el cálculo
promedio. Este tipo de cálculo permite soslayar en ocasiones el problema de
“root flipping”, intercambio o salto de raíces. Para cada simetría espacial y de
espín de interés, el cálculo de estados excitados se suele realizar mediante el
proceso CASSCF promediado. Sobre el papel también es factible realizar un
cálculo CASSCF de un raíz alta I > 1, optimizando sólo ese estado. No obstante, la
experiencia muestra que en la mayoría de los casos, en la práctica, tan sólo se
puede lograr para 1=2 , la segunda raíz de una simetría dada.

El espacio activo escogido en relación al problema a tratar es el punto clave y


determinante en la obtención de resultados precisos con la aproximación
CASSCF/CASPT2. Las propiedades que cumplimenta una función de onda
CASSCF dependen del espacio activo. Por ejemplo un CASSCF de valencia es
“size-extensive” y los resultados CASPT2 consecuentemente casi lo serán
(numéricamente, aunque no desde un punto de vista formal). El mensaje es
general a cualquier tipo de metodología químico-cuántica: el método ha de
ofrecer la suficiente flexibilidad para describir el proceso químico que sé
pretende; la flexibilidad de una función CASSCF queda determinada por el
espacio activo. ¿Hay una forma general, sin falla, de elegir un espacio activo para
un problema concreto? Intentaremos ahondar en la respuesta a esta pregunta en
la sección 8.13.

387
Índice
Capítulo 8

8.4. Cuestiones

8.10. Teniendo en cuenta la definición.del operador de excitación dada por


la ec. (8.1), demostrar que se cumplen las siguientes relaciones:

[Éij)É J = E¡,8Jt- É kj5i„


Eii|m) = n¡|m) siendo = 0, 1, 2.
8.11. En relación a las ecuaciones (8.3) y (8.4) comprobar la siguiente igualdad:

a,o'
8.12. Comprobar que la expresión de la energía (8.7) para el caso de una
función compuesta de un solo determinante capa cerrada da el conocido
valor en primera cuantización:
E = 2 ^ ( a | h | a) + X{2(aa | bb) - (ab | ba)}.
a ab

8.13. Sea S = |y)(x|-|x)(y|. Calcular Sf. ¿Qué tipo de matriz es S? ¿Qué tipo de
matriz es exp(S)?
8.14. Expresar los operadores de espín Sz y S2 en términos de los operadores de
creación y aniquilación. Mostrar entonces que los operadores E..
conmutan con los operadores de espín.
8.15. Para el’estado fundamental de un sistema con un número par de electrones,
los orbitales naturales homólogos a los orbitales virtuales canónicos que se
obtienen de un cálculo CASSCF de valencia son comparativamente más
compactos (menos difusos). Racionalizar este hecho mediante una
respuesta razonada.

8.5. El método CASPT2

El método CASPT2 queda enmarcado dentro de una teoría de perturbaciones no


degenerada convencional, es decir, se considera una sola función de referencia,
con la particularidad de que dicha función de referencia (de orden cero) es
multiconfiguracional, utilizando contracción interna.
La solución a la ecuación
H(X)V(X) = E(X)W(X) (8.9)
se expande en una serie de potencias en A:
H(X) = H°-hXH' (8.10)
W(X) = x¥ (0) + Xxí/(1) + X2x¥ C2)+l (8.11)
E(X) = E(0) + XE(l) + X2E(2) + L (8.12)
Las correcciones de orden k a la función de onda, W(k\ y a la energía, E00, se
obtienen resolviendo consecutivamente las correspondientes ecuaciones de
perturbación, las cuales de forma genérica se pueden expresar como:
(H° - E(0))W(k} = - H '¥ (k' 1) + X ¥ (J) (k * o). (8.13)
j=0

La corrección general de orden k a la energía, utilizando normalización


intermedia, resulta

388
Índice
Capítulo 8

(8.14)
por lo que, tenemos:
(8.15)
(8.16)
La corrección de primer orden a la función de onda viene dada por
'P(1) = R(0) (E0 ) - H ,) |vI'(o)) (8.17)
donde R(0) es la resolvente reducida:
R (0) = ( i - 1v p O ))(^ (o ) | j ( h » _ . (8.18)

8.5.1. El espacio de interacción de primer orden

El espacio de todas las funciones implicadas en la corrección de primer orden a


la función de onda en la teoría de perturbaciones de Rayleigh-Schrodinger, que
son aquellas que interaccionan con la función de orden cero a través del
Hamiltoniano, constituye el espacio de interacción de primer orden ( “first-order
interacting space”) (McLean, 1973). Debido a la naturaleza uni- y bipartícula del
Hamiltoniano, el espacio de interacción de primer orden consta de funciones
generadas mediante uni- y biexcitaciones a partir de la función de onda de orden
cero.
Consideraremos la función de onda multiconfiguracional |o), generada a partir
de un cálculo CASSCF, como función de orden cero en el tratamiento de
perturbaciones de la correlación electrónica. El hecho que los orbitales se hayan
optimizado permite introducir simplificaciones en el proceso computacional. No
obstante, la formulación CASPT2 es válida para cualquier estado de referencia
construido como una función CI completa ( “fu ll C I”) en un subespacio orbital
concreto. El espacio configuracional, en el cual la función de onda se expande,
puede dividirse en cuatro subespacios:
• V0, espacio unidimensional expandido por la función de referencia |o)
del estado considerado;
• VK, espacio ortogonal a |o) en el subespacio restringido “fu ll C I”
utilizado para generar la función CAS;
• VSD, espacio expandido por los reemplazos simples y dobles generados
desde VQ; y, por último,
• VTQ , que es el espacio que contiene el resto de excitaciones de orden
superior.
Solamente las funciones en el espacio VSD interaccionan con la función de
referencia vía el Hamiltoniano, por lo que constituye el espacio de interacción de
primer orden. Las funciones de dicho subespacio se pueden generar mediante la
aplicación de los operadores a la función |o). No obstante, no se necesitan
todas esas funciones. Por ejemplo, las funciones pertenecientes a VK se generan
cuando los cuatros índices p, q, r, y s se refieren a orbitales activos. Los orbitales
se subdividen en:
• Congelados: doblemente ocupados; no se correlacionan, no aparecen
explícitamente.
• Inactivos (i, j, k, 1...): doblemente ocupados en |o).

389
Índice
Capítulo 8

* Activos (t, u, v, Xx, ): con cualquier número de ocupación en |o).


• Secundarios (a, b, c, ): no ocupados en |o).
Las funciones necesarias en la expansión de la función de onda de primer orden
se pueden dividir en ocho grupos, generados a partir de operadores de excitación
promediados para el espín: (i) con ningún índice secundario (excitaciones
internas); (ii) con un solo índice secundario (excitaciones semiinternas); y, (iii)
con dos índices secundarios (excitaciones externas). Es decir:
Excitaciones internas: Excitaciones semiinternas: Excitaciones externas:
A.- E . E j o ) C : E a, E » F : E atE j o )
B: Ét¡É » D: Éa¡ÉJo>; Ét¡É » G: ¿ A »
E: Ét¡Éaj|o) H: É A » (8.19)
Las funciones A -H tienen el mismo espín total, y la componente z de espín, que la
función de referencia. Los requerimientos de simetría espacial se cumplimentan
incluyendo solamente las excitaciones para las que el producto de las cuatro
etiquetas de simetría contiene la representación totalmente simétrica. Se puede
comprobar fácilmente que los estados con reemplazos simples de electrones son
en realidad combinaciones lineales de las funciones A-H. En el método CASPT2
los operadores ÉMÉre actúan sobre la función de referencia |o):
(8.20)
quedando los coeficientes c, determinados por la función de orden cero (de ahí,
la denominación de contracción interna). En los métodos no contraídos los
operadores de excitación actúan sobre las funciones |/) directamente (ver por
ejemplo Hurón, 1973; Wolinski, 1989; Murphy, 1991). La contracción interna
permite reducir considerablemente el número de términos en la serie de
perturbación sin que se produzca una pérdida apreciable de calidad en los
resultados. Aunque se reduce la dimensión del espacio de interacción de primer
orden, aumenta la complejidad de la resolución de la función de primer orden.
Los subespacios V^K V„ son ortogonales entre sí, pero no todas las funciones de
un tipo son ortogonales. Por tanto, se deberá ortogonalizar y eliminar las
dependencias lineales.

8.5.2. El Hamiltoniano de orden cero

Se define H° de tal forma que en el caso límite de funciones de referencia capa


cerrada coincida con el Hamiltoniano M0 ller-Plesset. Se suele expresar H°
mediante operadores de proyección:
H° = P°FP° + P KF P K+ P sdFP sd +P tqk FPT0K (8.21)
donde F es una suma de operadores unipartícula, P° =|o)(o| proyecta la función
de orden cero, PK el espacio complementario al CAS, PSD está asociado al espacio
de interacción de primer orden y PTQK al resto del espacio representando
excitaciones de orden superior. Estos proyectores no implican ningún esfuerzo
computacional, simplemente es un modo de recalcar que resolvemos las
ecuaciones dentro del espacio de interacción de primer orden.

390
Índice
Capítulo 8

Se introducen los operadores


Fpqa = á pa fea*
' qa l - a +ÍH
pa ,á
~ qa 1 \ / (8.22)
cuyos valores expectación viene dados por:

<8-23>
Los elementos diagonales de (8.23) corresponden a diferencias de energías. Si p
representa un orbital inactivo entonces fpp es la diferencia de energía entre el
sistema, representado por |o), y su ion positivo. En el caso de que p se refiera a
un orbital secundario, fpp es la diferencia de energía entre el ion negativo y el
sistema neutro. Para orbitales parcialmente ocupados en |o) fpp corresponde a la
interpolación entre los dos extremos anteriores. La evaluación de (8.23) conduce
a la siguiente expresión para los elementos matriciales fpq:

fm = h P« + J D kl [ ( ^ I pq) _ ^ ( k p I lq ) l ’ ( 8 '2 4 )

donde D es la matriz de densidad unipartícula.

Un operador del tipo de Fock generalizado, FT, se puede escribir como suma de
la parte diagonal, FD, y de la parte no diagonal, FN:
FT = FD+FN, (8.25)
donde
FD= J epÉpp ( £p = fpp) (8-26)
y
Fn = + fj;Éti] + ^ [ f X , + f,IÉJ + J [ f ' É a¡ + f 'É J (8.27)
siendo fpq=S pqep para índices que se refieran al mismo subespacio orbital
(inactivo, activo, secundario). Los índices i, t, a, y p corren sobre los orbitales
inactivos, activos, secundarios y sobre el espacio orbital completo,
respectivamente.

8.5.3. La función de onda de primer orden y la corrección de la energía a


segundo orden

La función de onda de primer orden se expande en base de las funciones |j)


pertenecientes a VSD
M
M -g q lj) M a dim VSD. (8.28)
Los coeficientes j c p j = 1,K m| se obtienen a partir del sistema deecuaciones
lineales
| c j ( i|H °-E (°,|j ) - - ( i |H ' |o ) i=l , KM (8.29)
donde E (0) =(o|H°|o) es la energía de orden cero. Las funciones |j) en (8.28) no
son necesariamente ortogonales y también pueden presentar dependencias
lineales.
La ec. (8.29) se puede escribir de forma equivalente como:

391
Índice
Capítulo 8

m ^ ^

XCj < i|F -E (0)|j> = - <i|H|o) i= 1,K M. (8.30)


j= l

Con objeto de simplificar la notación se introducen las siguientes matrices y


vectores:
(Fx)#=(i|Fx|j), X = D, N
s( =<iü>,
V,=<i|H|o>, (8.31)
donde i, j = M. El vector columna C contiene todos los coeficientes C- de la
1 , K

expansión. La complejidad de la resolución de la ec. (8.30) depende de la


elección del operador unipartícula F . En el caso más sencillo, donde F = FD, la
ec. (8.30) se puede escribir como
[FD- E (0)S]C = -V . (8.32)
Ya que en la mayoría de casos sucede que M > dim VSD, los estados generados por
reemplazos dobles serán linealmente dependientes. Dicha dependencia lineal (o
casi dependencia lineal) se solventa diagonalizando la matriz de solapamiento S
y eliminando los correspondientes vectores propios con valores propios cero (o
cercanos a cero). Introduciendo las matrices de vectores propios, U, y valores
propios, queda
As = UfSU, (8.33)
donde, L = dim VSD, As es una matriz diagonal Lx L , y la dimensión de U es
Mx L . En caso de que ocurran dependencias lineales, L<di mVSD. Una vez
realizada una transformación de ortogonalización del espacio de interacción de
primer orden, la ec. (8.32) se puede escribir como
[FD- E (0)1]C = -V , (8.34)
donde Íi'- = UA"S1/2 (ortogonalización canónica), FD= Q/ t FD£2/, C = n 'C , y
V = Q/f Y . Se procede seguidamente a una diagonalización de FD
AD= W t FDW, (8.35)
siendo W y AD las matrices de vectores y valores propios, respectivamente.

La forma final de la ec. (8.32) es


[AD- E (0)1]C = -V , (8.36)
siendo Q = UAS“1/2 W, C = OC y V = Qf V. De la ec. (8.36) se puede obtener
fácilmente C

C = - [ AD- E (0)1]-1V, (8.37)


pudiéndose evaluar la corrección de segundo orden a la energía:
E(2) = (o | H' | *F(1)) = Vf C = Vf C = Vf C = - 'Vf [AD- E(0)1] V . (8.38)
De forma similar, aunque mediante un proceso más elaborado, se puede obtener
la solución de la ec. (8.30) cuando se emplea F = FD+ F N (véanse las referencias
Andersson, 1990, 1992a).

392
Índice
Capítulo 8

8.5.4. El peso de la referencia

La función corregida a primer orden, utilizando normalización intermedia, viene


dada por
(8.39)
Normalizando |W') y denominando | 1) a la función de primer orden
normalizada, queda
|W) = co|o) + c,|l) (8.40)
donde c* + c* = l. El peso c2o corresponde al peso de la función de referencia en
la función |W) y se utiliza como un criterio de calidad rápido y sencillo del
tratamiento de perturbaciones realizado. Idealmente, con objeto de que la
expansión de perturbación converja rápidamente, el peso de la referencia debería
ser cercano a la unidad. No obstante, su valor numérico depende del número de
electrones correlacionados. Así, a mayor tamaño del sistema molecular tratado,
menor será el peso de la referencia. En la práctica, se verifica que los estados
electrónicos excitados tratados tengan un peso similar al estado fundamental
correspondiente, utilizando el mismo espacio activo. Sucede con frecuencia que
el estado de referencia es degenerado (o cuasidegenerado) y por tanto el
tratamiento de perturbaciones no será valido; el coeficiente c, tendrá un valor
proporcionadamente alto, lo que conllevará a un peso de la referencia
relativamente bajo (cercano a cero en el caso límite). El análisis de los estados
con valores altos del coeficiente Cj (estados intrusos) nos puede sugerir la
reformulación del tratamiento de perturbación realizado, mediante la inclusión
en el espacio activo de los orbitales implicados en el(los) estado(s) intruso(s).
Este tipo de acción se recomienda cuando los estados intrusos interaccionan con
la referencia de forma pronunciada, con contribuciones a la energía de segundo
orden de ;> 0.1 a.u. Sucede en casos relativamente obvios, apuntando al hecho de
que probablemente el espacio activo elegido es deficiente. Por ejemplo, cuando
sólo se han incluido en el espacio activo parte de los orbitales requeridos para
describir un estado (es común cuando se trunca el espacio activo n en el
tratamiento de estados electrónicos excitados de sistemas orgánicos). El peso
“bajo” en estos casos indica al usuario que el espacio activo debe ser ampliado,
de modo que el estado intruso se traslade al espacio CAS-CI tratándolo de esta
forma variacionalmente. En otras ocasiones no menos numerosas, principalmente
cuando la base monoelectrónica contiene funciones Rydberg, sucede que el peso
de la referencia es “algo bajo” respecto al correspondiente valor obtenido para
el estado fundamental, sin que se pueda responsabilizar de ello a un estado
concreto de la función de primer orden, la cual suele presentar un gran número
de contribuciones de escasa importancia. Estamos en estos casos frente a
situaciones de cuasidegeneraciones accidentales, implicando a estados intrusos
que interactúan débilmente con la referencia, donde la técnica “level-shift” (LS)
queda especialmente aconsejada para constatar la validez del tratamiento de
perturbaciones realizado.

Muchas veces se requiere la aplicación de ambas estrategias: se aumenta el


espacio activo para remediar el problema severo de estados intrusos “fuertes” y
con el espacio ampliado se introduce el LS con objeto de minimizar las

393
Índice
Capítulo 8

contribuciones a segundo orden de los estados intrusos “débiles” La


responsabilidad de tomar la decisión adecuada en cada caso contemplado recae
evidentemente sobre el usuario (investigador) que utiliza el programa
(herramienta) para llevar a cabo la investigación diseñada.

8.6. Cuestiones

8.16. En general se puede demostrar que conociendo W(k) se puede calcular la


energía hasta orden 2k+l. Compruébese para k=l:
|h'| W(1)^ - E(1)^P(1) |W(1)^
8.17. ¿Verdadero o falso? (Razónese la respuesta):
• El método CASPT2 considera los reemplazos simples.
• El método CASPT2 se podrá usar únicamente cuando la función de
referencia sea CASSCF.
8.18. Sea el operador unipartícula
F..ij = á.ia|^ ÍH,af
a ’ ja J
] - áio|^f ÍH,á.
» ja J
1.
Demostrar que su valor expectación, sumado el espín, viene dado por:

donde H representa el Hamiltoniano electrónico:


H = g htl ÉH+ ^ 2 ( k l I m n)(Ét, Ém„ - 6 lmÉ J .
8.19. Uno de los términos de la ec. (8.27) es estrictamente igual a cero cuando se
utiliza una función de referencia CASSCF individual: ¿cuál es dicho
término? Para funciones de referencia obtenidas de cálculos CASSCF
promedio: ¿se anulará también dicho término?

8.7. El método LS-CASPT2

El método “level-shift” CASPT2 (LS-CASPT2) elimina de forma efectiva los


estados intrusos mediante la adición de un parámetro de desplazamiento al
Hamiltoniano de orden cero y posterior corrección de su efecto a la energía de
segundo orden. Cuando no se presentan estados intrusos, el efecto del
desplazamiento aplicado es despreciable (Roos, 1995a, 1996b, 1996c).

Se pueden definir los estados intrusos como aquellos estados pertenecientes al


espacio de interacción de primer orden, para los que el correspondiente valor
propio del Hamiltoniano de orden cero, es similar al valor propio de la función
de orden cero. La separación de los valores propios se puede aumentar mediante
la adición al Hamiltoniano de orden cero de un operador de desplazamiento,
quedando:
H° + ePSD (8.41)
donde e es un número positivo pequeño. A partir del cálculo con el
Hamiltoniano desplazado se obtiene los coeficientes de la expansión de la
función de onda de primer orden y la corrección de segundo orden a la energía.
De forma análoga a las expresiones dadas por las ecs. (8.37) y (8.38), podemos
escribir:

394
Índice
Capítulo 8

(8.42)

(8.43)

donde la tilde denota resultados afectados por el desplazamiento. De esta forma,


el desplazamiento aplicado eliminará los estados intrusos, pero la energía de
segundo orden dependerá de e . El valor de e no se puede escoger en base a
fundamentos físicos y el resultado queda, por tanto, ambiguo. Esta ambigüedad
puede resolverse mediante una transformación de retroceso aproximada de la
energía de segundo orden para obtener su valor sin desplazamiento, pero libre
ahora de estados intrusos. Suponiendo que (X¡ - E ío)) » e se obtiene:

(8.44)

De forma equivalente se puede escribir, hasta primer orden en e :


(8.45)

(8.46)
donde co es el peso de la función de referencia CASSCF en el cálculo CASPT2
desplazado. Así, la'energía de segundo orden corregida, E(¿}, es igual a la energía
estándar CASPT2, E(2), hasta primer orden en e :
E(2) ~ É (2) - £ f 4 - l | = E<¿> ' (8.47)
Veo /
Solamente en el caso de que la condición (k.t - E (0)) » e no se cumpla, es decir,
cuando aparecen estados intrusos en el espacio de interacción de primer orden, la
energía E(¿} diferirá de E(2). Es altamente recomendable verificar la tendencia
correcta de E(¿} en un rango amplio de valores de e . Normalmente, el análisis de
los resultados para e = 0.0, 0.1, 0.2, 0.3, 0.4 a.u. es suficiente para comprobar la
adecuada dependencia de los resultados LS-CASPT2 respecto a los valores de e .
Si solo se hace un cálculo con un valor de e dado se corre un alto riesgo, pues
accidentalmente podrían aparecer singularidades, precisamente para ese valor de
e , y el resultado LS-CASPT2 no sería fiable. Con el calibrado sugerido, variando
el valor de e, se podrá evitar fácilmente dicho riesgo. También es de señalar que
la técnica del “level-shift” imaginario (Forsberg, 1997) ofrece la completa
desaparición de las mencionadas singularidades accidentales.

A efectos prácticos se realiza el cálculo de perturbaciones con el Hamiltoniano


desplazado obteniéndose É(2) y C¡. El cómputo de E(2) se efectúa mediante el
funcional variacional de segundo orden de Hylleraas, E(v2r}, utilizando la función
de primer orden no desplazada, es decir, expandida en base a los coeficientes C.
sin desplazamiento,
E(v;> = 2 ( lP(1)|H'.-E(1)|'P(0)) + (W<1)|Ho - E (0)|»P(1)}. (8.48)

395 Índice
Capítulo 8

La energía E(¿} se obtiene como EfJ - É(2). Como se observa de la ec. (8.47), E(¿}
solamente depende (hasta primer orden) del valor de co.

8 .8 . El método MS-CASPT2

El método “multi-state” CASPT2 (MS-CASPT2) (Finley, 1998) representa una


extensión del método CASPT2 para el tratamiento de perturbaciones con varios
estados de referencia. El método CASPT2 (con una única función de referencia)
quedará seriamente limitado para la descripción precisa de procesos químicos
cuando la función CASSCF no sea un estado de referencia adecuado, debido al
acoplamiento entre diferentes estados electrónicos a través de la energía de
segundo orden. Por ejemplo, cuando dos estados electrónicos estén
energéticamente muy próximos y la correlación dinámica afecte en gran medida
su interacción, tal como sucede en los cruzamientos evitados, y en aquellas
situaciones donde la interacción entre los estados de valencia y Rydberg sea
tratada incorrectamente a nivel CASSCF.

El método MS-CASPT2 se ubica dentro del espíritu de la teoría de perturbaciones


cuasidegenerada. Supongamos que hemos realizado N cálculos CASPT2 para las
correspondientes funciones de referencia ^>¡ (i=l,...N ), obtenidas con un
conjunto de orbitales promedio que incluye las N raíces CASSCF de interés.
Consideremos la representación matricial del Hamiltoniano en el conjunto de
base constituido por las N funciones W. = <f>¡ + lF¡(1). Los elementos matriciales de
la matriz de solapamiento entre las funciones de base son (Roos, 1996a):
s, = | ^ ) = (O, + | o j + W/'5) 6 -- + (8.49)
ya que = 6 ;j, (<5. |ip.(1)) = 0 y (v ¡(,,| 1J'(1)) = s¡r
Por otro lado, los elementos matriciales siguientes también son conocidos:
(í>¡ ¡H| <E>j) = 6^ E¡ (8.50)
(<&,|H|'If) = e!j (8.51)
donde E¡ representa la energía CASSCF para el estado i y los elementos en son
las energías de correlación CASPT2. Quedan por evaluar los elementos:
(V¡(1)|H |'í'(1)). (8.52)
Para ello el Hamiltoniano lo expresamos como suma de un Hamiltoniano de
orden cero y un Hamiltoniano que tiene en cuenta el resto de los efectos. Esta
partición depende del estado:
H = H“ +H;. (8.53)
Al sustituir (8.53) en (8.52), el segundo término se despreciará ya que
corresponde a correcciones a tercer orden (ver cuestión 8.16), quedando:
(w*" | h | Wf») - (w¡(,) |H° l ^ 1») - (W¡C1) |H° |Vj(1)) (8.54)
A efectos de orden práctico se usa el valor promedio
* , ...X 1 /, * , ,..X , *

Índice
Capítulo 8

haciendo simétrica la representación matricial, la cual contiene solamente


términos de órdenes cero, primero y segundo.

Finalmente queda:
= (% | H | ^ ) - 6 , E¡ + ±(e.. + t f ) + i ( E ‘°> + E<°>)S¡j. (8.56)
La ecuación secular correspondiente resulta
(H - E S) C = 0, (8.57)
que mediante una transformación de ortogonalización simétrica toma la forma
(Hx - E1)C1 = 0 (8.58)
siendo C 1 =S1/2C y H1 = S"1/2HS"1/2. En la base ortogonal (simbolizada por ± ) los
elementos del Hamiltoniano truncado a segundo orden son:
Hj = 8 ¡j E, + ~ ( e¡j + ej¡). (8.59)

La función de onda MS-CASPT2 se puede escribir como


^ p “ J C j i ) + W pll>, (8.60)
donde |i) son las funciones de referencia CASSCF y Wp(1) es la función de primer
orden para el estado p. De forma análoga la expresión anterior también se puede
ver como
V,- |ip) » (8-61)
donde |i ) es el estado modelo y puede considerarse como una nueva función de
referencia para el estado p, la cual está descrita por una combinación lineal de
todos los estados CAS involucrados en el cálculo MS-CASPT2. La funciones de
referencia | ip) se denominan “Perturbation Modified CAS” (PMCAS). Se utilizan
para el cálculo de propiedades de transición y valores expectación a nivel MS-
CASPT2.

En suma, el método MS-CASPT2 tiene en cuenta el acoplamiento de las


funciones CASSCF vía la correlación dinámica. Se construye un Hamiltoniano
efectivo donde los elementos diagonales corresponden a las energías CASPT2 y
los elementos fuera de la diagonal contemplan el acoplamiento a segundo orden
en la energía de correlación dinámica de los estados de interés. De esta forma,
todos los estados de una simetría dada se pueden tratar simultáneamente,
incluyendo los efectos de correlación sobre las funciones de referencia.

8.9. Naturaleza de los estados electrónicos excitados de moléculas

Atendiendo al tipo de orbitales moleculares implicados en la descripción del


estado, se pueden distinguir dos tipos básicos de estados excitados: valencia y
Rydberg. Tradicionalmente, los estados Rydberg se definen como estados
electrónicos que presentan una gran similitud con los estados electrónicos del
átomo de hidrógeno (Robin, 1974). Se sabe que el espectro de absorción de
estados Rydberg contiene una serie convergente de líneas, cuyo comportamiento
se ajusta a una ecuación similar a la dada por la fórmula del término
hidrogenoide:

397
Índice
Capítulo 8

hV = £ .------——- (8.62)
1 (n - 6 )
donde es la energía de ionización hacia la cual la serie converge, R representa
la constante de Rydberg, n es un número entero (correspondiente al número
cuántico principal en el hidrógeno) y se relaciona con el número cuántico
principal del orbital Rydberg implicado en la transición, y 8 es el llamado
defecto cuántico, que nos muestra la desviación del comportamiento puramente
hidrogenoide (5 = 0 para el átomo de hidrógeno). Los estados Rydberg de
moléculas se nombran dando el número cuántico n seguido del símbolo (s, p, d
...) correspondiente al número cuántico acimutal del estado atómico al que se
parece. Así, se puede hablar de estados Rydberg 3s, 3d, 4p, etc. El defecto
cuántico 5 toma valores típicos dependiendo del caso: 0.6-0.8 para ns, 0.95-1.1
para np, y -0.05-0.15 para estados Rydberg nd. Las fuerzas de oscilador de las
transiciones a estados Rydberg son generalmente de un orden de magnitud
menor respecto de las transiciones intensas a estados excitados de valencia. Los
estados Rydberg son por ello más difíciles de detectar en el espectro de
absorción. No obstante, se pueden observar mediante espectroscopia de
ionización multifotónica, dado que las transiciones a estados Rydberg son
entonces bastante intensas (ver por ejemplo Merchán, 1996a). El carácter
intrínseco de los estados Rydberg los hace susceptibles de ser afectados por
perturbaciones externas; por ejemplo, se observa un ensanchamiento de las
bandas por efecto de las colisiones al aumentar la temperatura, no se detectan en
fases condensadas, etc.

Desde un enfoque orbital, el estado Rydberg se puede entender como el


resultado de excitar un electrón desde un orbital ocupado de la molécula y
situarlo en un orbital de carácter puramente atómico, de número cuántico n
creciente, cuya naturaleza difusa sitúa a la carga lejos del resto de los electrones
de la molécula, de tal forma que el electrón en el orbital Rydberg “sentirá” a la
molécula como un catión que actúa como una carga puntual. En una molécula
compuesta por elementos del segundo periodo, con electrones de número
cuántico principal máximo n=2, los orbitales Rydberg comenzarán por tener un
número cuántico principal n=3. Por ello, los estados Rydberg más bajos suelen
corresponder a los nueve estados siguientes: 3s, 3px, 3py, 3pz, 3dx2-y2, 3dz2, 3dxz,
3dyz, 3dxy, donde el electrón viene del orbital ocupado más alto (HOMO),
proceso de excitación relacionado con el primer potencial de ionización. En caso
de que el segundo potencial de ionización se diferencie del primero en unos 2
eV (o menos), es también usual que los correspondientes estados Rydberg 3s y
3p convergiendo al segundo potencial de ionización queden intercalados entre
los anteriores. La geometría de equilibrio de un estado Rydberg será parecida a la
del estado electrónico correspondiente del catión. En el caso de que la geometría
de equilibrio del catión y del sistema neutro (estado fundamental) sean similares,
la energía de excitación vertical y el origen de banda de una transición Rydberg
quedarán energéticamente cercanas.

En los estados de valencia participan fundamentalmente los orbitales de valencia


(enlazantes, pares solitarios, antienlazantes), por lo que no tienen el carácter
difuso de los estados Rydberg. Los valores relativos calculados para el segundo

398
Índice
Capítulo 8

momento cartesiano (<x2>; <y2>; <z2>) nos permite determinar de forma sencilla
la naturaleza del estado excitado; resultados cercanos a los correspondientes al
estado fundamental indican la naturaleza de valencia del estado excitado y nos
identifica el tipo concreto de extensión espacial de los estados Rydberg. En
ciertos casos se calculan estados con mezcla valencia-Rydberg. El determinar si
son estados reales de tipo intermedio valencia-Rydberg o bien dicha mezcla se
debe a un artefacto del cálculo truncado a un cierto nivel de teoría, no es obvio y
depende del caso. En este sentido, los resultados obtenidos con el método MS-
CASPT2 suelen ser esclarecedores.

Atendiendo a la naturaleza de un estado de valencia dentro de la teoría de enlace


de valencia (VB) ( “valence bond”) se suelen distinguir entre estados covalentes y
zwitteriónicos. En este mismo contexto se identifican también los estados iónicos
y birradicales. Cuando un estado electrónico presenta en su descomposición VB
estructuras agujero-agujero ( “hole-hole”) dicho estado se clasifica como
covalente. Los estados zwitteriónicos están caracterizados por estructuras VB
agujero-par ( “hole-pair”). En contraposición, los estados iónicos son aquellos
que presentan una separación real de carga. Por otro lado, si un par de orbitales
no enlazantes casi degenerados está ocupado con un total de dos electrones en el
modelo MO simple del estado fundamental, la molécula se denomina birradical o
birradicaloide (Klessinger, 1995). Con objeto de ilustrar estas definiciones,
consideraremos a continuación algunos ejemplos de estas clases de estados,
implicando al sistema molecular eteno.

Los estados excitados jr-electrónicos del eteno se pueden describir utilizando


bien orbitales deslocalizados o bien orbitales localizados. En el modelo simple de
dos orbitales con dos electrones, los estados de valencia del eteno, en términos de
los orbitales moleculares deslocalizados jt y jt* se denominan N, T, V, y Z
siguiendo la notación de Mulliken. (No obstante, el criterio más corriente de
representación de los estados moleculares es a través de la nomenclatura de la
teoría de grupos, y es el que utilizaremos posteriormente). El estado N
corresponde a la configuración electrónica con el orbital jt doblemente ocupado
(estado fundamental). Los estados T y V corresponden al estado triplete y
singlete más bajos, respectivamente. Quedan descritos por las correspondientes
combinaciones lineales más y menos de las configuraciones simplemente
excitadas. El estado etiquetado como Z corresponde a la configuración con dos
electrones en el orbital jt*. Pues bien, sustituyendo el orbital jt y jt* en dichas
configuraciones por su expresión en función de los orbitales atómicos N+(pfl ±
p¿>) representando a y b los átomos de carbono del eteno y N+ el factor de
normalización, se llega a la conclusión de que el estado V es zwitteriónico,
mientras el estado T es covalente. Un ejemplo de estado birradical lo
encontramos en el estado fundamental del dimetileno (etileno con los grupos
CH 2 perpendiculares). Si a partir de esta estructura perpendicular se produce la
piramidalización de uno de los extremos, el estado excitado singlete más bajo es
un estado iónico, con una separación de carga real, dado que la piramidalización
favorece la localización de un par electrónico y, por tanto, el extremo no
piramidalizado queda con defecto de electrones (Molina, 2000).

399
Índice
Capítulo 8

Desde el punto de vista del tipo de configuraciones por las que queda descrito
mayoritariamente un estado excitado, en relación al estado fundamental, se
pueden denominar uniexcitados, biexcitados, etc. Los estados Rydberg quedan
generalmente bien descritos por una sola configuración uniexcitada (son
monoconfiguracionales). Los estados multiconfiguracionales singlete con una
gran contribución de biexcitaciones son del tipo covalente. Los estados
zwitteriónicos singlete están descritos por una o varias configuraciones
uniexcitadas y se caracterizan por la importante contribución de la correlación
dinámica en el cómputo de la energía de excitación; es decir, a nivel CASSCF las
energías de excitación suelen quedar muy altas y pueden bajar en más de 2 eV a
nivel CASPT2. Los estados zwitteriónicos son los “difíciles” de tratar para
cualquier tipo de metodología ab initio. Con objeto de obtener resultados
precisos se requiere el tratamiento de la correlación diferencial a gran escala. Por
otro lado, la falta de flexibilidad intrínseca de ciertas metodologías previene (e
incluso ignora) el tratamiento de los estados biexcitados. Es de destacar que para
el método CASSCF/CASPT2 todos ellos se tratan con la misma flexibilidad y
resultan igualmente “difíciles” (o “fáciles”) de calcular, rindiendo energías de
excitación verticales con una precisión media a nivel CASPT2 de ±0.2 eV,
cuando es posible la comparación con hallazgos experimentales apropiados. No
obstante, la mezcla valencia-Rydberg que ocurre en ciertas simetrías,
dependiendo del sistema molecular, hace que en esos casos los resultados no
hayan sido tan precisos llegando a desviaciones de ±0.3-0.4 eV al mismo nivel de
cálculo. Parece ser que dichas situaciones se podrán resolver en el futuro de
forma mucho más favorable, utilizando el método MS-CASPT2 recientemente
desarrollado; los resultados obtenidos hasta la fecha a dicho nivel de cálculo son
realmente prometedores, si bien la extensión de la mezcla valencia-Rydberg
depende de la base monoelectrónica y de la geometría.

8.10. El conjunto de funciones de base monoelectrónica

Las bases de orbitales atómicos naturales ANO ( “atomic natural orbital”) están
expresamente ideadas para tratar efectos de correlación (Almlóf, 1987). Son
bases con contracción general. Están constituidas por orbitales atómicos naturales
generados a partir de cálculos atómicos correlacionados. En concreto, las bases
ANO incluidas en el programa MOLCAS se han construido promediando los
orbitales de distintos estados atómicos con objeto de asegurar su posterior
flexibilidad a distintas situaciones moleculares (Widmark, 1990, 1991; Pou-
Amérigo, 1995b; Pierloot, 1995). El número de primitivas de los denominados
ANO-L consta de (14s9p4d3f) para los átomos Li-Ne y (8s4p3d) para el átomo
de hidrógeno. La contracción a emplear deberá mostrar cierto balance entre
calidad y eficacia de cálculo. Se debe utilizar un conjunto contraído de al menos
X[3s2pld]/H[2s] (X=Li-Ne) con objeto de obtener resultados representativos.
Generalmente, en estudios espectroscópicos de sistemas orgánicos de tamaño
medio hemos utilizado la contracción C[4s3pld]/H[2slp] obteniendo resultados
cuantitativos (ver por ejemplo Merchán, 1999a y referencias allí citadas).
Similares comentarios son válidos para las bases ANO-S, que constan de un
número ligeramente inferior, por lo que son indicadas para el estudio de sistemas
moleculares con un mayor número de átomos (ver por ejemplo, Serrano-Andrés,
1998; Rubio, 1999).

400
Índice
Capítulo 8

Con objeto de poder incluir el estudio de estados Rydberg, el tipo de bases


anteriores, específicas para el tratamiento de estados de valencia, se debe
incrementar (Malrieu, 1981). Cronológicamente, tres han sido las estrategias con
las que hemos experimentado para estudiar estados Rydberg. En los estudios
iniciales, se añadió orbitales atómicos difusos que incrementasen el conjunto de
base monoelectrónica sobre cada átomo (véase por ejemplo Serrano-Andrés,
1993a). En estos casos se suele encontrar dependencias lineales debido al
solapamiento entre orbitales difusos de los átomos vecinos. Los coeficientes de
los orbitales moleculares difusos son muy grandes, y el cálculo de las integrales
dielectrónicas implica la multiplicación de números elevados y cancelaciones que
conllevan una pérdida de precisión. Por otro lado, otros inconvenientes sufridos,
tales como que los estados de valencia eran difíciles de encontrar en un cálculo
CASSCF (quedando energéticamente muy altos, pues se privilegiaba los estados
difusos), un gran número de estados intrusos en el cálculo de perturbaciones, y el
coste computacional más elevado debido al considerable aumento de la base
monoelectrónica, nos hicieron pronto iniciar la búsqueda de funciones Rydberg
más ventajosas. El segundo procedimiento consistió en ubicar 2s2p2d funciones
difusas con los exponentes recomendados por Dunning y Hay (Dunning, 1977)
en el centro de cargas de la molécula. De esta forma se logra representar al
estado Rydberg tal y como lo entendemos: un electrón situado en un orbital que
cubre y siente a la molécula como un catión. La inspección de la carga contenida
en los orbitales difusos (análisis de población) permite determinar el tipo de
estado Rydberg (3s, 3py, ...) de forma sencilla. Con esta experiencia
comprobamos la clara ventaja de las funciones Rydberg centradas. No obstante,
la elección de los exponentes en relación al tamaño molecular quedaba ambigua.
En tercer lugar, dentro del mismo espíritu de funciones centradas, Fülscher
desarrolló un procedimiento de obtención de funciones Rydberg óptimas para
una molécula dada, basado en el proceso de generación de bases gausianas
universales. Para el estudio de estados Rydberg 3s, 3p y 3d se utilizan funciones
[ls lp ld ], situadas en el centroide de carga del catión, generadas a. partir de un
conjunto de primitivas (8 s 8 p 8 d). Su propuesta, con pequeñas variantes respecto a
la original, la venimos usando hasta la fecha, y se encuentra descrita en varias
fuentes (ver por ejemplo Roos, 1995b).

8.11. Geometría molecular

Para el cálculo de las energías de excitación verticales, tenemos


fundamentalmente dos alternativas: i) determinar la geometría molecular de
equilibrio del estado fundamental teóricamente, o ii) emplear la estructura
determinada por técnicas experimentales en fase gas (suponiendo que esté
disponible). En el caso del eteno optaremos por la segunda posibilidad. En
general, cuando los datos experimentales son dudosos, o bien se carece de ellos,
la geometría del estado fundamental se tiene que determinar teóricamente.
Idealmente, dicho cálculo se debería realizar al mismo nivel teórico que el llevado
a cabo para el espectro electrónico. Esto se ha podido hacer en contadas
ocasiones, por ejemplo para la molécula ds-l,3-butadieno (Serrano-Andrés,
1994a), dado que el método CASPT2 no tiene implementado de forma rutinaria
el cálculo de los gradientes de la energía. En la mayoría de las aplicaciones
hemos utilizado una estructura para el estado fundamental determinada a nivel

401
Índice
Capítulo 8

MP2 y(o) CASSCF. Debido a la inclusión de la correlación dinámica, por algún


tiempo pensamos que la geometría MP2 sería más precisa que la obtenida del
cálculo CASSCF de valencia. Hoy en día tenemos constancia de que dicho
argumento no se mantiene de forma general, sino que depende del tipo de
sistema molecular. Por ejemplo, el método MP2 sobrestima los efectos de
conjugación como se ha podido comprobar para polienos (Serrano-Andrés,
1993b), ácido urocánico y bases de Schiff (Page, 1999 y referencias allí citadas).
La determinación de la geometría del estado fundamental a nivel CASSCF es
también preferible cuando se prevé, además del espectro vertical, el estudio de los
espectros de emisión y origen de bandas, por razones de consistencia, ya que el
método MP2 no es apropiado para la determinación de los parámetros
geométricos de la mayoría de estados excitados. El origen de banda (transición
0 -0 ) se puede estimar como la diferencia de energía entre el estado fundamental
y estado excitado, cada uno a su geometría óptima respectiva. El máximo de
emisión (fluorescencia o fosforescencia), se puede aproximar como la diferencia
de energía entre el estado excitado y el fundamental, calculados ambos a la
geometría óptima del estado excitado.

La geometría del estado fundamental determinada a nivel CASSCF en sistemas Jt-


electrónicos, empleando el espacio activo de valencia jt, ha resultado ser
realmente precisa, debido a una cancelación sistemática de dos efectos
contrapuestos. Por un lado, la correlación no dinámica del sistema jt tiende a
alargar demasiado los enlaces carbono-carbono, y, por otro lado, la ausencia de
correlación en el sistema o tiende a que dichos enlaces sean demasiado cortos.
Claramente, ambos efectos se cancelan resultando estructuras “p recisa s”
(Serrano-Andrés, 1993b; González-Luque, 1998).

Especial precaución hay que tener al comparar los resultados teóricos con las
estructuras determinadas por difracción de rayos X en fase sólida, pues dicha
técnica tienden a infravalorar los enlaces múltiples. Sistemas donde se ha dado
esta circunstancia son octatetraeno (Serrano-Andrés, 1993b) y estilbeno (Molina,
1997, 1999).

La ubicación de la molécula en los ejes de coordenadas determina la designación


de los estados excitados, por lo que hay que observar ciertas precauciones. El
criterio más extendido, y utilizado de hecho por la mayoría de los autores, es el
recomendado por Mulliken. Programas químico-cuánticos tan populares como
GAUSSLAN utilizan dicho criterio en lo que allí se denomina “standard
orientation”. Desde un punto de vista práctico y ante la duda siempre se puede
recurrir a dicho programa para corroborar la elección efectuada. Siguiendo este
criterio, la molécula de etileno, perteneciente a la simetría D2h, la situaremos en el
plano yz con los átomos de carbono en el eje z.

8.12. Cálculo de los momentos de transición y de la fuerza de oscilador

La interpretación teórica del espectro molecular requiere, además del cálculo de


las energías de excitación, la determinación de los momentos de transición, los
cuales nos ofrecen información acerca de la polarización de la transición, y el
cómputo de la fuerza de oscilador, cuyos valores los podemos relacionar de

402
Índice
Capítulo 8

forma relativa con las intensidades de las bandas observadas experimentalmente.


Es con el análisis global de estos resultados cuando podemos ofrecer
asignaciones con carácter cuantitativo, posibilitando nuevas predicciones o
confirmado las bien establecidas.

La fuerza de oscilador, f (magnitud adimensional), de las transiciones


electrónicas verticales, dentro del esquema usual considerado en espectroscopia
electrónica y suponiendo que la transición obedece el principio de Franck-
Condon, se puede estimar por (Perkampus, 1993):
f = | | M ¡f|2 AEn (8.63)
donde Mif = (W.t |jl|Wf) es el momento dipolar de transición (en a.u.) entre los dos
estados implicados (normalmente estado fundamental y excitado) y AEfi
corresponde a la diferencia de energía entre el estado final e inicial (en a.u.).

El cálculo del momento de transición se realiza de forma eficiente mediante el


método “CAS State interaction” (CASSI) (Malmqvist, 1986, 1989).
Tradicionalmente, el cómputo de las integrales Mif era arduo, en especial cuando
las funciones implicadas no son ortogonales y las reglas de Slater no son, por
tanto, aplicables. Las funciones CASSCF implicadas en el cálculo del momento
de transición pueden no ser ortogonales. Por ejemplo, dos funciones obtenidas
de un cálculo CASSCF promedio sí son ortogonales, pues son las raíces de un
proceso CI usando una misma base de MOs. Sin embargo, si las funciones
CASSCF provienen de cálculos individuales independientes de la misma simetría
no son, en general, ortogonales. El método CASSI soslaya la dificultad de la
evaluación de esas integrales por medio de una transformación biortonormal. En
suma, se construye la representación matricial del Hamiltoniano en la base de las
funciones CASSCF, así como las integrales de solape entre las funciones de base,
y resolviendo el correspondiente problema secular se obtiene un conjunto de
estados ortogonales y no interactivos. La única restricción del método es que
requiere que todos los estados considerados simultáneamente en la interacción
tengan el mismo número de orbitales inactivos y activos por simetría. De hecho,
como referencia para el cálculo de la energía de excitación se usa la energía del
estado fundamental obtenida con el mismo espacio activo. El cálculo de la fuerza
de oscilador a nivel CASSCF y CASPT2 se realiza con los valores Mif obtenidos a
partir de las funciones CASSCF, sustituyendo en la fórmula (8.63) AEfi por la
diferencia de energía obtenida al correspondiente nivel de cálculo. El valor de f a
nivel MS-CASPT2 se obtiene a partir de las energías a dicho nivel de cálculo y de
los momentos de transición que provienen de la interacción de las funciones
PMCAS-CI. Esta aproximación está basada en el hecho constatado de que los
efectos de correlación dinámica no afectan en gran medida a los valores del
momento de transición cuando la correlación no dinámica está tenida en cuenta;
tal es el caso de funciones CASSCF (Roos, 1995b).

Por razones de simetría, sólo las integrales Mif que pertenezcan a la


representación irreducible totalmente simétrica serán distintas de cero.
Corresponden a transiciones permitidas por dipolo eléctrico; el resto son
prohibidas y no serán responsables de las bandas más intensas observadas en el

403
Índice
Capítulo 8

espectro de absorción (aunque pueden ser detectadas mediante otras técnicas


espectroscópicas). Los valores altos de Mif corresponden a transiciones
claramente permitidas. Dicha integral tendrá un valor más alto en valor absoluto
cuanto mayor sea la penetración entre las funciones y Wf. Por ello, las
transiciones a estados valencia de tipo jtjt* suelen ser más intensas que las
correspondientes a estados Rydberg, pues la penetración entre un orbital de
valencia y un orbital Rydberg es muy pequeña. Por ese mismo razonamiento, los
estados de valencia nit*, donde n representa un par solitario, están relacionados a
transiciones con valores muy bajos de fuerza de oscilador (en caso de ser
permitidas). Además, los estados excitados descritos mayoritariamente por
biexcitaciones se corresponden con transiciones de baja intensidad, dado que la
integrales Mif serán cero (reglas de Slater). En muchos sistemas se observa la
presencia de dos estados descritos principalmente por un par de configuraciones
uniexcitadas, por ejemplo HOMO-*(LUMO+l) y (HOMO-l)-^LUMO, con
pesos similares. Las funciones de estado corresponden a las combinaciones
más(+)/menos(-) de dichas uniexcitaciones. Dado que los momentos se sustraen
en la combinación (-) y quedan sumados en la combinación (+), la fuerza de
oscilador es pequeña y alta, respectivamente, en las respectivas transiciones
(Rubio, 1995; Merchán, 1998, 1999a). Por otro lado, la polarización de una
transición se puede deducir considerando las componentes cartesianas Mif, lo
cual ayuda enormemente a la caracterización de la misma (ver, por ejemplo
Serrano-Andrés, 1996; Molina, 1997).

8.13. Selección del espacio activo

Hemos dejado una pregunta pendiente en la sección 8.3, en relación a la


selección del espacio activo. Podríamos concluir que, en general, no hay un
protocolo sistemático de elección del espacio activo. De hecho, es el argumento
favorito para los detractores de este tipo de metodología: hay que “elegir” un
espacio activo, a base de “intuición”, “experiencia”, y algún otro calificativo
difícil de cuantificar; ¿qué pasa si uno no tiene esa intuición, etc.? Bien, de
acuerdo, no es un procedimiento “caja negra” en el que introduzco los
ingredientes y al cabo de un tiempo tengo cocinado el espectro. No obstante, la
pregunta clave se puede formular como: ¿es difícil realizar dicha selección? La
respuesta es no. En realidad, precisamente en la posibilidad de elección es dónde
recae el gran potencial del método. Además, siempre nos podemos asegurar de la
elección realizada mediante cálculos de calibrado (altamente aconsejable): una
vez incluido el espacio menor posible que posibilita el estudio, los resultados
CASPT2 quedan estables respecto a posteriores ampliaciones del espacio activo,
dentro de la precisión requerida. Por otro lado, la presencia (o ausencia) de
estados intrusos a segundo orden nos confirmará la no idoneidad (o idoneidad)
del espacio activo elegido y podremos replantearnos, si fuera necesario, su
ampliación en base a la estructura de la función de primer orden.

Como regla general podemos decir que el espacio deberá contener aquellos
orbitales cuyos números de ocupación varíen significativamente de dos y cero
durante el proceso considerado. Orbitales con números de ocupación cercanos a
dos deben trasladarse al conjunto de inactivos y los que tengan dichos valores

404
Índice
Capítulo 8

casi cero deben tratarse como virtuales. El análisis de los números de ocupación
de los orbitales naturales a nivel MP2, SDCI, o los obtenidos a partir de funciones
“restricted active space SC F ” RASSCF (extensión de la función CASSCF, ver
Olsen, 1988), puede ayudar a plantear el espacio activo para construir una
función de onda CASSCF (ver ilustración en González-Luque, 1993). Se podría
pensar que el espacio activo de valencia brinda la flexibilidad para moverse a
través de gran parte de la hipersuperficie de un sistema molecular dado, lo cual
sería especialmente valorado en estudios de reactividad química. Si bien lo dicho
es cierto en muchas ocasiones, no es en absoluto general. Baste pensar en la
molécula de agua, para la que tenemos ocho electrones de valencia y solamente
dos orbitales de correlación disponibles (4a! y 2b2) (Roos, 1992: pag. 193). Con
solamente los dos orbitales virtuales de valencia, la correlación se introduce
preferentemente en el par solitario correspondiente (3a^ y el orbital enlazante
OH ( lb 2). Los orbitales 2&x y Ib! se han dejado sin correlacionar, por lo que el
tratamiento a nivel CASSCF de valencia no queda balanceado; de hecho, a este
nivel, la molécula resulta asimétrica (con enlaces OH diferentes). Este problema
se resuelve ampliando el espacio activo de valencia con dos orbitales: 5aj y 2 b!.
La ocupación de estos orbitales resulta que no es inferior a la de los orbitales de
correlación de valencia. Es por ello, que en este contexto se considera como
espacio activo ideal el que incluye un orbital de correlación por cada orbital
ocupado, e incluso el doblamiento de los últimos (dos orbitales de correlación
por cada orbital fuertemente ocupado) con objeto de evitar problemas de ruptura
de simetría (McLean, 1985). No obstante, en la mayoría de las ocasiones, los
espacios activos resultantes se hacen difíciles de manejar por imposibilidad
técnica y dicho criterio dista de ser una solución general.

Descendamos ahora al caso concreto de la selección del espacio activo del eteno,
como representante de las situaciones que se encuentran en los estudios teóricos
de espectros de sistemas orgánicos. En base a argumentos cualitativos y en vista
de lo adecuado de la aproximación g-jt para sistemas orgánicos planos, el
espacio activo debería incluir los orbitales xc de valencia junto a los nueve
orbitales Rydberg. En el caso de las transiciones verticales del eteno equivale a
realizar un CASSCF(11 MOs/2 elec.), es decir, once orbitales activos con dos
electrones activos, el cual nos brinda la flexibilidad para tratar los siguientes
estados: estado fundamental, ^„(jnt*) (estado de valencia V), y los nueve estados
Rydberg jt->3s, 3px, 3py, 3pz, 3dx2_y2, 3dz2, 3dxz, 3dyz, 3dxy? donde el orbital n es
el HOMO. No obstante, la inclusión simultánea de todos los orbitales te de
valencia y los nueve orbitales Rydberg no se puede realizar en sistemas jt-
electrónicos de mayor tamaño. Es esos casos es posible usar un conjunto
diferente de orbitales activos para estados de distinta simetría. Como energía de
referencia para el cálculo de la energía de excitación tomaremos la del estado
fundamental obtenida con el mismo espacio activo. Concretamente, para el
cálculo de los estados !Blu del eteno, el espacio activo jt de valencia junto con el
orbital Rydberg 3dxz, CASSCF(3 MOs/2 elec.) sería suficiente para describir el
estado excitado de valencia nn y el estado Rydberg Jt-^3dxz. Con elecciones
apropiadas: orbitales tí de valencia + orbitales Rydberg de una simetría dada, se
pueden describir el resto de los estados Rydberg. Supongamos que nuestro
interés se centra ahora en la construcción de las curvas de energía potencial de

405
Índice
Capítulo 8

dichos estados a lo largo del alargamiento del enlace carbono-carbono. En el


límite tendríamos dos unidades metileno separadas por una distancia infinita, por
lo que deberíamos aumentar el espacio activo anterior con los orbitales a y o * del
enlace central, CASSCF(5 MOs/4 elec.), de lo contrario no tendríamos la
flexibilidad requerida.

8.14. Cuestiones

8.20. Comprobar la igualdad mostrada en la ec. (8.55), evaluando los elementos


matriciales implicados.
8.21. Siguiendo las indicaciones dadas en la sec. 8.9, verificar para el eteno la
naturaleza zwitteriónica y covalente de los estados V y T, respectivamente.
8.22. La diferencia entre las energías de excitación singlete-triplete son menores
para estados Rydberg y estados mt* de valencia que para estados de
valencia jzjz* ¿por qué? (Sugerencia: expresar la diferencia de energía
singlete-triplete dentro un modelo MO simple monodeterminantal).

8.15. Ilustración: estados electrónicos excitados 11B1|I y 2xBlu de la molécula de


eteno

Un cálculo químico-cuántico sobre cualquier sistema molecular comienza por


requerir la geometría de la molécula. Asimismo, se ha de elegir el conjunto de
base monoelectrónica y el espacio activo. Todo ello dependerá del objetivo
global del estudio. Es decir, que como tarea de orden cero se debe definir
claramente cuáles son los objetivos generales del estudio, al menos en una
primera fase. En nuestro caso enfocamos nuestra atención a la determinación de
las energías de excitación verticales de los estados 1 ^ y 2 1Blu, así como el
cálculo de la fuerza de oscilador de las transiciones correspondientes.
• Geometría a utilizar. La determinada experimentalmente para el estado
fundamental (Herzberg, 1966):
r(CC)=1.339 Á; r(CH)=1.086 Á ;¿H C H =117.6°.
• Conjunto de base. ANO-L C[4s3p2d]+C(2s2pld)/H[3s2p]
(ver exponentes en Serrano-Andrés, 1993a). ^
• Espacio activo: CASSCF(11 MOs/2 elec.). Orbitales activos: jt, Jt\ 3s,
3px> 3py, 3pz,3 d x 2_ y 2, 3 d z 2, 3 d X Z ; 3 d y Z , 3 d x y .

Una vez analizados los datos de entrada y la salida con ellos producida por el
programa MOLCAS, procedamos a inspeccionar los resultados, los cuales se
compilan en la Tabla VIII. 1.

Comparando los valores del segundo momento de los estados excitados con los
obtenidos para el estado fundamental, l'Ag, con el mismo espacio activo (11.8;
9.2, 9.2 a.u.), el estado 2'B lu se puede clasificar claramente como Rydberg 3dxz.
Hay cierta mezcla valencia-Rydberg, mayor en la función de onda CASSCF que
en la PMCAS- CI, la cual se refleja tanto en los valores de la fuerza de oscilador,
como en los valores del segundo momento, y en las energías de excitación.

406
Índice
Capítulo 8

Tabla VIII. 1. Energía de excitación vertical y otras propiedades para los estados
11B 1|1 y 2'B ludel eteno obtenidas a diferentes niveles de cálculo.

Nivel de cálculo l'B lu 2 1Blu

CASSCF(11 MOs/2 elec.)


AE (eV) 8.19 8.94
f 0.1666 0.0788
(<x 2>;<y 2>;<z2>) (a.u.) 43.1; 18.1; 41.4 172.1; 61.1; 168.7

CASPT2
AE (eV) 8.36 9.28
f 0.1700 0.0818
0) 0.9128 0.9169

PMCAS-CI
AE (eV) 8.26 8.87
f 0.2215 0.0206
(<x 2>;<y2>;<z2>) (a.u.) 36.6; 16.0; 34.9 178.6; 63.2; 175.2

MS-CASPT2
AE (eV) 8.26 9.37
f 0.2217 0.0218

A nivel MS-CASPT2, el estado l 1! ^ se obtiene a 8.26 eV verticalmente por


encima del estado fundamental, 0.1 eV por debajo de la predicción CASPT2, y
con una fuerza de oscilador ligeramente superior para la transición, consistente
con el mayor carácter de valencia del estado excitado. La energía de excitación
disminuye y la fuerza de oscilador aumenta conforme el carácter de valencia del
estado excitado se acentúa.

Incluyendo en el espacio activo los orbitales de valencia jt y solamente el orbital


Rydberg 3dxz, los resultados CASPT2 (MS-CASPT2) son 8.45 (8.36) y 9.34
(9.43) eV para las energías de excitación de los estados l 1! ^ y 2 1Blu,
respectivamente. Es decir, los dos espacios activos distintos conducen a resultados
que se diferencian solamente en 0.1 eV. Con la función CASSCF(5 MOs/ 4 elec.)
descrita en al sección anterior, los resultados CASPT2 son: 8.23 y 9.12 eV, para
la excitación de valencia y Rydberg, respectivamente; los resultados obtenidos a
nivel MS-CASPT2, 8.02(1 !B lu) y 9.33 eV, se acercan más a la mejor
estimación teórica de la transición de valencia ( » 8 eV) y al valor experimental
determinado para el estado Rydberg (9.33 eV) (ver citas en Serrano-Andrés,
1993a). Es también de señalar que al incluir parte de la polarización o en el
espacio activo, el estado de valencia ya no queda tan alto a nivel CASPT2 (ver
discusión en Pérez-Casany, 1998), aunque dentro del error esperado del método.

407
Índice
Capítulo 8

No obstante, con dicho espacio activo (5 MOs/ 4 elec.), el peso de la función de


referencia para el estado Rydberg (0.6669) resulta algo bajo respecto al
fundamental (0.9216). Dado que aparentemente no hay estados intrusos
claramente definidos, es un caso adecuado para la técnica LS-CASPT2. Los
resultados MS-CASPT2 (con “level-shift”) caen dentro del rango 8.02-8.15 eV y
9.33-9.31 eV cuando el parámetro e varía de 0.0 a 0.4 a.u., aumentando los
pesos progresivamente, lo que ilustra lo adecuado de los resultados con la
aproximación estándar (a pesar del peso relativamente bajo). Por otro lado, los
resultados obtenidos utilizando una base con funciones difusas centradas,
comparables con los obtenidos aquí con el mismo espacio activo (3 MOs/ 2 elec.)
(Finley, 1998): 7.9 8 (l'B lu) y 9.40(21Blu) eV a nivel MS-CASPT2, frente a 8.45 y
8.93 eV a nivel CASPT2, corroboran que la extensión de la mezcla valencia-
Rydberg depende del tipo de base monoelectrónica.

8.16. Resumen, conclusiones y perspectivas futuras

En el presente capítulo hemos considerado los fundamentos básicos del método


CASPT2 y sus recientes extensiones. Como se desprende de lo expuesto, el
método ofrece un gran potencial para el tratamiento de estados excitados. Los
errores intrínsecos de la metodología oscilan en ±0.2 eV para transiciones bien
establecidas experimentalmente, no importa su naturaleza. Con dicha
metodología se pueden tratar todo tipo de estados (valencia, Rydberg, ...) al
mismo nivel de precisión, brindando importante material adicional y
complementario a los hallazgos experimentales, logrando así una mejor
comprensión de los mismos. Los estados se obtienen en el orden correcto, tanto
energéticamente, como en carácter, e intensidades relativas. La limitación
fundamental del método radica en el tamaño del espacio activo a utilizar; aún así,
una elección cuidadosa del mismo ha posibilitado el estudio de sistemas de gran
tamaño molecular como la porfina (Serrano-Andrés, 1998), para la cual se han
ofrecido asignaciones noveles. No obstante, el cuello de botella del espacio activo
no queda ligado al tamaño molecular. Por ejemplo, una diatómica aparentemente
tan sencilla como la formada por dos átomos de níquel (Pou-Amérigo, 1994;
Merchán, 1996b) requiere un espacio activo ideal tan amplio como el
correspondiente al sistema jt de valencia en la porfina.

Hemos entrado en una era donde la química ha dejado de ser puramente


experimental, donde cada día más los especialistas experimentales y teóricos
aúnan sus esfuerzos, y mano a mano se encaminan hacia una visión más
enriquecedora del comportamiento químico de los sistema moleculares. La
metodología expuesta, entre otras, está llamada a participar ampliamente en dicho
esfuerzo conjunto. En este sentido, la inclusión de efectos del solvente (ver por
ejemplo Serrano-Andrés, 1996; Proppe, 2000), así como el análisis vibracional de
las bandas (Bernhardsson, 2000; Pou-Amérigo, 2000) nos permite acercarnos
paulatinamente a una modelización más completa del sistema molecular real, en
los casos que dichos efectos deban tenerse en cuenta para la correcta dilucidación
de su comportamiento espectroscópico.

408
Índice
Capítulo 8

8.17. Agradecimientos

Este trabajo ha sido financiado por la DGES a través del proyecto PB97-1377.
Deseo expresar mi más profundo agradecimiento a las personas con las que he
tenido el placer y el honor de colaborar. Mucho del material que se recopila en
este manuscrito constituye el bagaje cultural del grupo de trabajo, adquirido en el
transcurso de un buen número de difíciles e interesantes aplicaciones.

8.18. Bibliografía

Almlöf, J.; Taylor, P.R. (1987):


“General contraction o f Gaussian basis sets. I. Atomic natural orbitals for first-
and second-row atom s”,
J. Chem. Phys. 86, 4070-4077.

Andersson, K.; Malmqvist, P.-Á.; Roos, B.O.; Sadlej, A.J.; Wolinski, K. (1990):
“Second-order perturbation theory with a CASSCF reference function ”,
J. Phys. Chem. 94, 5483-5488.

Andersson, K.; Malmqvist, P.-Ä.; Roos, B.O. (1992a):


“Second-order perturbation theory with a complete active space self-consistent
field reference function ”,
J. Chem. Phys. 96, 1218-1226.

Andersson, K. (1992b):
“Multiconfigurational perturbation theory ”,
Thesis, Lund, University of Lund.

Andersson, K.^ Blomberg, M.R.A.; Fülscher, M.P.; Karlström, G.; Lindh, R.;
Malmqvist, P.-A.; Neogrády, P.; Olsen, J.; Roos, B.O.; Sadlej, A.J.; Schütz, M.;
Seijo, L.; Serrano-Andrés, L.; Siegbahn, P.E.M.; Widmark, P.-O. (1997):
MOLCAS, version 4.0\ Department of Theoretical Chemistry, Chemical Centre,
University of Lund, P.O.B. 124, S-221 00 Lund (Suecia).

Bernhardsson, A.; Forsberg, N.; Malmqvist, P.-Á.; Roos, B.O.; Serrano-Andrés, L.


(2000 ):
“A theoretical study o f the B2u and B ,u vibronic bands in benzene ”,
J. Chem. Phys. 112, 2798-2809.

Dunning Jr., T.H.; Hay, P.J. (1977):


“Gaussian basis sets for molecular calculations” in Schaefer III, H.F. (ed.):
“Methods o f electronic structure theory”, New York, Plenum Press, 1-27.

Finley, J.; Malmqvist, P.-Ä.; Roos, B.O.; Serrano-Andrés, L. (1998):


“The multi-state CASPT2 method”,
Chem. Phys. Lett. 288, 299-306.

409
Índice
Capítulo 8

Forsberg, N.; Malmqvist, P.-Á. (1997):


“Multiconfiguration perturbation theory with imaginary level shift”,
Chem. Phys. Lett. 274, 196-204.

González-Luque, R.; Merchán, M.; Fülscher, M.P.; Roos, B.O. (1993):


“An ab initio study o f the electron affinity o f 0 2 ”,
Chem. Phys. Lett. 204, 323-332.

González-Luque, R.; Merchán, M. (1998):


“Low-lying singlet and triplet states o f all-trans(10-s-cis)-2,4,6,8,10-
undecapentaen-l-al: a theoretical determination”,
Mol. Phys. 94, 189-198.

Grabenstetter, J.E.; Tseng, T.J.; Grein, F. (1976):


“Generation o f genealogical spin eigenfunctions ”,
Int. J. Quantum Chem. 10, 143-149.

Herzberg, G. (1966):
“Molecular spectra and molecular structure. III. Electronic spectra and
electronic structure o f polyatomic molecules ”,
New York, Van Nostrand Reinhold Company.

Huron, B.; Malrieu, J.P.; Rancurel, P. (1973):


“Iterative perturbation calculations o f ground and excited state energies from
multiconfigurational zeroth-order wavefunctions”,
J. Chem. Phys. 58, 5745-5759.

Klessinger, M.; Michl, J. (1995):


“Excited states and photochemistry o f organic molecules ”,
New York, VCH Publishers.

Levine, I.N. (1977):


“Química cuántica”, Madrid, Editorial AC.

Malmqvist, P.-Á. (1986):


“Calculation o f transition density matrices by nonunitary orbital
transformations ”,
Int. J. Quantum Chem. 30, 479-494.

Malmqvist, P.-Á.; Roos, B.O. (1989):


“The CASSCF state interaction method”,
Chem. Phys. Lett. 155, 189-194.

Malrieu, J.P. (1981):


“Comments about the representation o f Rydberg and ionic excited states and
their photochemistry ”,
Theor. Chim. Acta 59, 251-279.

410
Índice
Capítulo 8

McLean, A.D.; Liu, B. (1973):


“Classification o f configurations and the determination o f interacting and
noninteracting spaces in configuration interaction”,
J. Chem. Phys. 58, 1066-1078.

McLean, A.D.; Lengsfield III, B.H.; Pacansky, J.; Ellinger, Y. (1985):


“Symmetry breaking in molecular calculations and the reliable prediction o f
equilibrium geometries. The formyloxyl radical as an example ”,
J. Chem. Phys. 83, 3567-3576.

Merchán, M. (1987):
“Determinación de orbitales moleculares óptimos en una aproximación
monodeterminantal a la función de onda”, Valencia, Universität de Valéncia.

Merchán, M.; Roos, B.O.; McDiarmid, R.; Xing, X. (1996a):


“A combined theoretical and experimental determination o f the electronic
spectrum o f acetone”,
J. Chem. Phys. 104, 1791-1804.

Merchán, M.; Pou-Amérigo, R.; Roos, B.O. (1996b):


“A theoretical study o f the dissociation energy o f Ni2+. A case o f broken
symmetry ”,
Chem. Phys. Lett. 252, 405-414.

Merchán, M.; Serrano-Andrés, L.; González-Luque, R.; Roos, B.O.; Rubio, M.


(1998):
“Theoretical spectroscopy o f organic compounds ”,
J. Mol. Struc. (Theochem) 463, 201-210.

Merchán, M.; Serrano-Andrés, L.; Slater, L.S.; Roos, B.O.; McDiarmid, R.; Xing,
X. (1999a):
“Electronic spectra o f 1,4-cyclohexadiene and 1,3-cyclohexadiene: A combined
experimental and theoretical investigation”,
J. Phys. Chem. A 103, 5468-5476.

Merchán, M.; Serrano-Andrés, L.; Fülscher, M.P.; Roos, B.O. (1999b):


“Multiconfigurational Perturbation Theory Applied to Excited States o f Organic
Compounds” in Hirao, K. (ed.): “Recent advances in multireference methods”,
Vol. 4, Singapore, World Scientific Publishing Company, 161-195.

Molina, V.; Merchán, M.; Roos, B.O. (1997):


“Theoretical study o f the electronic spectrum o f trans-stilbene”,
J. Phys. Chem. A 101, 3478-3487.

Molina, V.; Merchán, M.; Roos, B.O. (1999):


“A theoretical study o f the electronic spectrum o f cis-stilbene ”,
Spectrochim. Acta A 55, 433-446.

411
Índice
Capítulo 8

Molina, V.; Merchán, M.; Roos, B.O.; Malmqvist, P.-Ä. (2000):


“On the low-lying singlet excited states o f styrene: a theoretical contribution ”,
Phys. Chem. Chem. Phys., en prensa.

Murphy, R.B.; Messmer, R.P. (1991):


“Generalized M 0 ller-Plesset perturbation theory applied to general MCSCF
reference wave functions ”,
Chem. Phys. Lett. 183, 443-448.

Olsen, J.; Roos, B.O.; J 0 rgensen, P.; Jensen, H.J.Aa. (1988):


“Determinant based configuration interaction algorithms for complete and
restricted configuration interaction spaces”,
J. Chem. Phys. 89, 2185-2192.

Olsen, J.; J 0 rgensen, P.; Simons, J. (1990):


“Passing the one-billion limit in full configuration-interaction (FCI)
calculations ”,
Chem. Phys. Lett. 169, 463-472.

Page, C.S.; Merchán, M.; Serrano-Andrés, L.; Olivucci, M. (1999):


“A theoretical study o f the low-lying excited states o f trans- and cis-urocanic
acid”,
J. Phys. Chem. A 103, 9864-9871.

Pérez-Casany, M.P.; Nebot-Gil, I.; Sánchez-Marín, J.; Castell-Marcos, O.; Malrieu,


J.-P. (1998):
“Vertical spectrum o f ethene: uncontracted versus contracted correlation
methods and the role o f the adapted molecular orbitals ”,
Chem. Phys. Lett. 295, 181-188.

Perkampus, H.-H. (1993):


“Encyclopedia o f spectroscopy ”,
Weinheim, VCH.

Pierloot, K.; Dumez, B.; Widmark, P.-O.; Roos, B.O. (1995):


“Density matrix averaged atomic natural orbital (ANO) basis sets for correlated
molecular wave functions. IV. Medium size basis sets for the atoms H-Kr. ”,
Theor. Chim. Acta 90, 87-114.

Pou-Amérigo, R.; Merchán, M.; Nebot-Gil, I.; Malmqvist, P.-Ä.; Roos, B.O.
(1994):
“The chemical bonds in CuH, Cu2, NiH, and Ni2 studied with
multiconfigurational second order perturbation theory”,
J. Chem. Phys. 101, 4893-4902.

Pou-Amérigo, R. (1995a):
“Construcción, calibrado y aplicaciones de conjuntos de base de orbitales
naturales atómicos para los metales de la primera serie de transición”,
Tesis Doctoral, Valencia, Universität de Valencia.

412
Índice
Capítulo 8

Pou-Amerigo, R.; Merchän, M.; Nebot-Gil, I.; Widmark, P.-O.; Roos, B.O.
(1995b):
“Density matrix averaged atomic natural orbital (ANO) basis sets for correlated
molecular wave functions. III. First row transition metal atoms ”,
Theor. Chim. Acta 92, 149-181.

Pou-Amerigo, R.; Merchän, M.; Orti, E. (1999):


“Theoretical study o f the electronic spectrum o f p-benzoquinone”,
J. Chem. Phys. 110, 9536-9546.

Pou-Amerigo, R.; Serrano-Andres, L; Merchän, M.; Orti, E.; Forsberg, N. (2000):


“A theoretical determination o f the low-lying electronic states o f the p -
benzosemiquinone radical anion ”,
J. Am. Chem. Soc., en prensa.

Proppe, B.; Merchän, M.; Serrano-Andres, L. (2000):


“Theoretical study o f the twisted intramolecular charge transfer in 1 -
phenylpyrrole ”,
J. Phys. Chem. A 104, 1608-1616.

Robin, M.B. (1974):


“Higher excited states o f polyatomic molecules ”, Vol. 1, New York, Acadenic
Press.

Roos, B.O.; Taylor, P.R.; Siegbahn, P.E.M. (1980):


“A complete active space SCF method (CASSCF) using a density matrix
formulated super-CI approach”,
Chem. Phys. 48, 157-173.

Roos, B.O.; Linse, P.; Siegbahn, P.E.M.; Blomberg, R.A. (1982):


“A simple method for the evaluation o f the second-order perturbation energy
from external double-excitations with a CASSCF reference wavefunction”,
Chem. Phys. 6 6 , 197-207.

Roos, B.O. (1987):


“The complete active space self-consistent field method and its applications in
electronic structure calculations”, in Lawley, K.P. (ed.):
uAb initio methods in Quamtum Chemistry-II”, New York, John Wiley & Sons
Ltd., Advances in Chemical Physics 69, 399-445.

Roos, B.O. (ed.) (1992):


Lecture Notes in Chemistry, 58: Lectures Notes in Quantum Chemistry, European
Summer School in Quantum Chemistry, Berlin, Springer-Verlag.

Roos, B.O. (ed.) (1994):


Lecture Notes in Chemistry, 64: Lectures Notes in Quantum Chemistry II,
European Summer School in Quantum Chemistry, Berlin, Springer-Verlag.

413
Índice
Capítulo 8

Roos, B.O.; Andersson, K. (1995a):


“Multiconfigurational perturbation theory with level shift — the Cr2 potential
revisited”,
Chem. Phys. Lett. 245, 215-223.

Roos, B.O.; Fiilscher, M.P.; Malmqvist, P.-À.; Merchán, M.; Serrano-Andrés, L.


(1995b):
“Theoretical studies o f electronic spectra o f organic molecules” in Langhoff,
S.R. (ed.): “Quantum mechanical electronic structure calculations with chemical
accuracy ”, Dordrecht, Kluwer Academic Publishers, 357-431.

Roos, B.O. (1996a):


“A perturbation-variation treatment o f the multi-state problem in CASPT2”,
Lund, University of Lund.

Roos, B.O.; Andersson, K.; Fiilscher, M.P.; Serrano-Andrés, L.; Pierloot, K.;
Merchán, M.; Molina, V. (1996b):
(<Applications o f level shift corrected perturbation theory in electronic
spectroscopy”,
J. Mol. Struc. (Theochem) 388, 257-276.

Roos, B.O.; Andersson, K.; Fiilscher, M.P.; Malmqvist, P.-Ä.; Serrano-Andrés, L.;
Pierloot, K.; Merchán, M. (1996c):
“Multiconfigurational perturbation theory: Applications in electronic
spectroscopy” in Prigogine, I.; Rice, S.A. (eds.): “New methods in computational
quantum mechanics”, New York, John Wiley & Sons, Advances in Chemical
Physics XCIII, 219-331.

Rubio, M.; Merchán, M.; Orti, E.; Roos, B.O. (1995):


“A theoretical study o f the electronic spectrum o f biphenyl”,
Chem. Phys. Lett. 234, 373-381.

Rubio, M. (1996):
“Espectroscopia teórica de oligómeros de cadena corta de polímeros orgánicos
conjugados”,
Tesis Doctoral, Valencia, Universität de Valéncia.

Rubio, M.; Roos, B.O.; Serrano-Andrés, L.; Merchán, M. (1999):


“Theoretical study o f the electronic spectrum o f magnesium-porphyrin ”,
J. Chem. Phys. 110, 7202-7209.

Serrano-Andrés, L.; Merchán, M.; Nebot-Gil, I.; Lindh, R.; Roos, B.O. (1993a):
“Towards an accurate molecular orbital theory for excited states: ethene,
butadiene, and hexatriene”,
J. Chem. Phys. 98, 3151-3162.

Serrano-Andrés, L.; Lindh, R.; Roos, B.O.; Merchán, M. (1993b):


“Theoretical study o f the electronic spectrum o f all-trans-1,3,5,7-octatetraene”,
J. Phys. Chem. 97, 9360-9368.

414
Índice
Capítulo 8

Serrano-Andrés, L.; Roos, B.O.; Merchán, M. (1994a):


“Theoretical study o f the electronic spectra o f cis-l,3,5-hexatriene y cis-1,3-
butadiene ”,
Theor. Chim. Acta 87, 387-402.

Serrano-Andrés, L. (1994b):
“Estudio teórico del espectro electrónico de sistemas orgánicos”,
Tesis Doctoral, Valencia, Universität de Valencia.

Serrano-Andrés, L.; Roos, B.O. (1996):


“Theoretical study o f the absorption and emission spectra o f indole in the gas
phase and in the solvent”,
J. Am. Chem. Soc. 118, 185-195.

Serrano-Andrés, L.; Merchán, M.; Rubio, M.; Roos, B.O. (1998):


“Interpretation o f the electronic absorption spectrum o f free base porphin by
using multiconfigurational second-orden perturbation theory ”,
Chem. Phys. Lett. 295, 195-203.

Shepard, R. (1987):
“The multiconfiguration self-consisten field method”, in Lawley, K.P. (ed.):
“Ab initio methods in Quamtum Chemistry-II”, New York, John Wiley & Sons
Ltd., Advances in Chemical Physics 69, 63-200.

Szabo, A.; Ostlund, N.S. (1982):


“Modern quantum chemistry: Introduction to advanced electronic structure
theory ”, New York, Macmillan Publishing Co., Inc.

Veszprémi, T.; Fehér, M. (1999):


“Quantum Chemistry: Fundamentals to Applications”, New York, Kluwer
Academic/Plenum Publishing.

Werner, H.-J. (1987):


“Matrix-formulated direct multiconfiguration self-consistent field and
multiconfiguration reference configuration-interaction methods”, in Lawley, K.P.
(ed.): “Ab initio methods in Quamtum Chemistry-II”, New York, John Wiley &
Sons Ltd., Advances in Chemical Physics 69, 1-63.

Widmark, P.-O.; Malmqvist, P.-Á.; Roos, B.O. (1990):


“Density matrix averaged atomic natural orbital (ANO) basis sets for correlated
molecular wave functions. I. First row atoms”,
Theor. Chim. Acta 77, 291-306.

Widmark, P.-O.; Persson, B.J.; Roos, B.O. (1991):


“Density matrix averaged atomic natural orbital (ANO) basis sets for correlated
molecular wave functions. II. Second row atoms ”,
Theor. Chim. Acta 79, 419-432.

415
Índice
Capítulo 8

Wolinsli, K.; Pulay, P. (1989):


“Generalized M 0 ller-Plesset perturbation theory: second order results for two-
configuration, open-shell excited singlet, and doublet wave functions”,
J. Chem. Phys. 90, 3647-3659.

416
Índice
Capítulo 9. Modelización Molecular
J. Frau*, E, Sánchez M arcosb y J. Andrésc5
a Universität liles Balears, Departament de Química, Crta. Valldemossa, km
7.5 Palma de Mallorca 07071
b Departamento de Química Física. Universidad de Sevilla. 41012-Sevilla
c Departament de Ciencies Experimentáis, Universität Jaume I, D.P. 224,
12080 Castellón.

9.1 FUERZAS INTERM OLECULARES


9.1.1 Introducción
El concepto de moléculas como objetos sujetos a fuerzas atractivas y
repulsivas fue enunciado por primera vez por Boscovich en 1783. Sin embargo, la
idea de que las moléculas se repelen a distancias cortas y se atraen a distancias
mayores fue establecida por Clausius en 1857. Posteriormente, Maxwell incorporó
este concepto en la descripción del comportamiento cinético de los gases y van der
Waals hizo lo propio en su función de estado para los gases reales.
Aunque desde finales del siglo XIX se vino realizando un esfuerzo
considerable para determinar la conexión entre las propiedades de la materia y las
fuerzas intermoleculares, no fue hasta el establecimiento de los principios de la
mecánica cuántica cuando se explicó satisfactoriamente la naturaleza de las fuerzas
intermoleculares. Sin embargo, las dificultades existentes en la realización de
cálculos ab initio introdujeron un obstáculo adicional, y por este motivo se
empezaron a desarrollar ecuaciones empíricas que determinan la dependencia de las
fuerzas intermoleculares con la separación entre moléculas.
Para moléculas esféricas la función energía potencial intermolecular adopta
la forma que se observa en la figura 9.1.

417
Índice
Capítulo 9

Este potencial presenta una


fuerza repulsiva fuerte a cortas
distancias y una atractiva a largas
distancias. Estos comportamientos
extremos están unidos por una función
que posee un único mínimo. En este tipo
de funciones hay una serie de
parámetros característicos que deben
definirse. Entre ellos destacan el
diámetro de colisión, a, separación a la
cual el potencial es nulo; rm, distancia ^ ^
, t , Figura 9.1. Función energía potencial
cuya energía es mmima; y £, energía del
intermolecular.
mínimo de la curva de potencial.

En el caso de moléculas no esféricas la energía intermolecular depende no


solo de la separación, sino también de la orientación relativa de las moléculas y
puede verse afectada además por sus estados internos (energía vibracional y
rotacional). Más complicaciones surgen cuando se consideran grupos de tres o más
moléculas (p.e. en líquidos y sólidos).
Pueden distinguirse varios tipos de interacciones intermoleculares, que
pueden agruparse en interacciones de largo (atractivas) y de corto alcance
(repulsivas).

9.1.2 Interacciones de Largo Alcance


Estas interacciones pueden dividirse globalmente en tres tipos: energía
electrostática, energía de inducción y energía de dispersión. Las dos primeras pueden
explicarse mediante métodos clásicos, mientras que la tercera requiere un tratamiento
cuántico.

9.1.2.1Energía Electrostática
Esta interacción se da entre especies cargadas y también entre especies sin
carga neta, pero que presentan un momento dipolar permanente. Se trata de

418
Índice
Capítulo 9

interacciones coulombianas que dependen de la separación entre las moléculas y de


la orientación relativa de estas moléculas.
La distribución de carga en una molécula se describe en función de los
momentos multipolares. En multitud de ocasiones se considera únicamente el
momento de menor orden, sin embargo si pretendemos obtener una representación
completa de la distribución de carga eléctrica es necesario incluir todos los
momentos. Por este motivo en las expresiones que vamos a ver a continuación se
muestran los sumandos que incluyen la presencia de los principales momentos.
En el caso de dos moléculas lineales, conocida su separación, los ángulos
que determinan su orientación relativa, sus dipolos (¡i,A, \iB) y cuádruplos (0 a?0 b)>
podemos escribir la energía de interacción como:

U ab = 3 f, (0 A, 0 B, <t>) + , y A 0 B 4 Í2 (0A. 0B, 40 - , ; B 0 \ f2 (0 A> <t>)


(4jie0)r (4jte0)r (4jte0)r
0 J0 D
+ 7T ^ h r r f3 (0A,0B,<t>) (9 -1 )
(4jte0)r

La dependencia angular de las funciones f1? f2 y f3 se justifica a partir de la


figura 9.2.
Para conocer las interacciones dipolo-dipolo globales hay que promediar
sobre todas las posibles orientaciones relativas considerando que no todas estas
orientaciones son igualmente probables. Así, teniendo en cuenta que la probabilidad
es proporcional al factor de Boltzmann, el primer término diferente de cero en la
expresión que determina la energía dipolo-dipolo viene dado por la ecuación 9.2.
Expresiones similares se pueden obtener al promediar la energía dipolo-cuádrupolo
(ec. 9.3) y cuádrupolo-cuádrupolo (ec. 9.4).

< u > ------ 2 ^ 8 (92)


3kT(4jt£0) r

419
Índice
Capítulo 9

Figura 9.2. Parámetros implicados en la función potencial para dos moléculas


lineales.

<U>,,0 = • (9.3)
kT(4jie0) r

TT _ 140^0g
<U> 00 - - (9.4)
5kT(4K80) r

9.1.2.2 Energía de Inducción


La distribución de carga de un sistema molecular puede verse afectada por
campos eléctricos externos, por ejemplo moléculas vecinas. Esta redistribución de la
carga se conoce con el nombre de polarización. La primera consecuencia es que se
induce un momento dipolar y se genera un nuevo tipo de interacción denominado
energía de inducción. Para moléculas isotrópicas, y siempre que la dirección del
momento inducido coincida con la del campo, este momento dipolar inducido puede
cuantificarse a partir del campo eléctrico (E) y de la polarizabilidad (a).

M-ind = a E (9.5)

Si consideramos moléculas no esféricas, la polarizabilidad se representa


mediante un tensor.

420
Índice
Capítulo 9

Al promediar la energía de interacción debida al dipolo inducido (ec. 9.6)


sobre todas las orientaciones, dando a cada una el peso apropiado según la
distribución de Boltzmann, se obtiene la energía de inducción, cuyo primer término
viene descrito por la ecuación 9.7 para una molécula polar y otra apolar o bien por la
ecuación 9.8 para dos moléculas polares. ,

U = -CCM2 (3cos2 0 + 1) / [2r6 (4jte0)2] (9.6)


\x2a
(9.7)

(9.8)

9.1.2.3 Energía de Dispersión


La energía de dispersión, descubierta por London en 1930, no puede ser
descrita completamente en términos clásicos, ya que su origen es mecano cuántico,
sin embargo una descripción clásica puede ayudar a comprenderla.
Clásicamente, estas interacciones pueden explicarse al considerar que en una
molécula, debido al continuo movimiento electrónico, puede generarse un momento
dipolar instantáneo. Este momento dipolar inducirá un momento dipolar en un átomo
vecino y como en las fuerzas de inducción clásicas, el efecto neto será la atracción.
Esta interacción será muy pequeña, sin embargo debe considerarse ya que es el
origen de la atracción entre átomos y moléculas simétricamente esféricos y además
es la contribución atractiva con mayor peso en muchas moléculas polares (Tabla 9.1).
La expresión del primer término de la energía de dispersión para dos moléculas
idénticas, de acuerdo con el modelo de Drude es:

donde El es la energía de ionización.


Considerando las contribuciones debidas a las interacciones de multipolos de
mayor orden:

Índice
Capítulo 9

Molécula ^ixlO30 a (4jt£0)*1 Electrost Induc. Dispers.


(Cm) xlO30 (Jm 6 x l 0 79) (Jm 6x l 0 79) (Jm 6 x l 0 79)
(m3)
Ar 0 1.63 0 0 50
Xe 0 4.00 0 0 209
C J i6 0 9.89 0 0 1086
CO 0.4 1.95 0.003 0.06 97
HCl 3.4 2.63 17 6 150
nh3 4.7 2.26 64 9 133
h 2o 6.13 1.48 184 10 61

Tabla 9.1 Contribuciones a la energía potencial intermolecular (coeficientes de f


6), momento dipolar y polarizabilidad para diferentes moléculas a 300 K. Los
componentes energéticos se han calculado a partir de las ecuaciones 9.2, 9.8 y 9.9
para moléculas idénticas.

9.13 Interacciones de Corto Alcance


El principio de Exclusión de Pauli restringe la posibilidad de que dos
electrones puedan ocupar la zona de solapamiento de las nubes electrónicas de dos
moléculas que están muy próximas. De esta manera, se reduce la densidad
electrónica en esta zona, el núcleo no está completamente protegido frente a los
restantes núcleos y se repelen mutuamente. Por tanto, la repulsión entre moléculas
surge debido en parte a la repulsión electrostática entre los núcleos y también a la
repulsión entre los electrones.
De acuerdo con esta descripción, al aproximarse dos moléculas la
perturbación de la distribución electrónica de las moléculas separadas es grande y
además la expansión multipolar utilizada para las fuerzas de largo alcance no es
válida. Por estos motivos, un estado inicial no perturbado construido a partir de las
moléculas separadas no es satisfactorio para el tratamiento de estas fuerzas.
Entre las diferentes aproximaciones utilizadas para el tratamiento de estas
fuerzas, el modelo de enlace valencia de Heitler-London permite obtener una
descripción de las fuerzas repulsivas en el caso de dos átomos de hidrógeno en su
estado fundamental. Este modelo, a pesar de no ser el mejor, tiene la ventaja de que
establece claramente los orígenes de las fuerzas repulsivas.
Normalmente en las representaciones de la energía intermolecular de corto
alcance se utiliza una función exponencial del tipo:
Urep = A e~Br (9.11)
422
Índice
Capítulo 9

9.1.4 Interacciones por Puente de Hidrógeno


Además de las interacciones de largo alcance, otra atracción intermolecular
importante es el enlace de hidrógeno. Este tipo de interacción aparece cuando un
átomo de hidrógeno enlazado covalentemente a un átomo electronegativo (A), tiene
la capacidad de interaccionar con otro átomo electronegativo (B), el cual puede ser
de la misma molécula u otra. La energía de esta interacción se cifra entre 12 y 39
kJ/mol dependiendo del sistema, y el ángulo de enlace AHB es cercano a los 180°.
La interacción por puente de hidrógeno en líquidos, como el agua, es
fundamental para explicar algunas propiedades físicas y también es vital en
moléculas biológicas.
Estudios ab initio sobre el origen de esta interacción muestran que su
componente energético fundamental es de naturaleza electrostática, en algunas
ocasiones hasta un 80% del total, si bien la contribución covalente puede llegar a ser
significativa.

9.1.5 Representación de las Interacciones Moleculares


Aunque la investigación teórica sobre las interacciones moleculares puede
dar una información muy importante sobre la naturaleza y orígenes de las fuerzas
entre moléculas, no es posible incluso en la actualidad obtener información detallada
sobre el potencial intermolecular para cualquier sistema a cualquier distancia
mediante estudios mecano cuánticos.
Para solventar este problema una solución fue obtener una representación
algebraica del potencial que depende de una serie de parámetros ajustables. El
cálculo de las propiedades se efectúa mediante el potencial propuesto y los
parámetros se ajustan de manera que estas propiedades coincidan con los resultados
experimentales.
A continuación se indican algunos de los potenciales que han sido más
utilizados.

9.1.5.1 Sistemas monoatómicos


Para estos sistemas la energía de interacción depende únicamente de la
separación de los núcleos. La función potencial más sencilla es el potencial de
esferas rígidas, que a pesar de su sencillez ha sido utilizado con éxito en
muchísimos estudios.

423
Índice
Capítulo 9

U(r) = 00 r<o
U(r) = 0 r>a (9.12)

La función potencial más conocida para sistemas monoatómicos es la


función de Lennard-Jones (LJ) 12-6 (ec. 9.13). Este potencial depende de dos
parámetros ajustables, el diámetro de colisión (a) y la profundidad del pozo (b) y está
constituido por un término repulsivo de corto alcance, resultado del solapamiento de
las nubes electrónicas, función de la inversa de la duodécima potencia de la distancia
y un término atractivo debido a las fuerzas de van der Waals que es función de la
inversa de la sexta potencia de la distancia entre dos átomos. El hecho de que no se
consideren los términos atractivos superiores y que la energía repulsiva no varíe
exponencialmente, como predice la teoría, da lugar a que este potencial no pueda ser
utilizado en cualquier conjunto de moléculas. Su uso obedece a una cuestión de
simplicidad.

U(r) = 4e [(cr/r) 12 - (a/r)6]


o U(r) = e [(rm/r) 12 - 2(rm/r)6] donde a = X '16 rm (9.13)

La ecuación 9.13 es un caso particular del potencial de LJ (n-m)

U(r) = £ [ — W ] (9.14)
n -m \ r j n - m ^ r

Una forma mejorada del potencial es el modelo exp-6, derivado del


potencial de Buckingham. Esta función (ec. 9.15) depende de tres parámetros: la
profundidad del pozo (e), la separación (rm o o) y un parámetro a que determina la
pendiente de la interacción repulsiva (normalmente vale 12 ó 15). La inclusión de
este tercer parámetro permite una mayor flexibilidad en la forma del potencial. En
este potencial la interacción repulsiva tiene la forma exponencial mucho más real.

U(r) = [A exp (-Br) - C/r6] - ----- —---- [ — exp a [1 - r/rm)]- (r / rm)‘6] (9.15)
(1-6/a) a
Investigaciones recientes apuntan a potenciales con un mayor número de
parámetros, los cuales permiten obtener descripciones más adecuadas y flexibles. Así

424
Índice
Capítulo 9

por ejemplo, la función de Barker y Pompe contiene hasta nueve términos, además
de e y rm:

U (r ) = exÁa( 1- r ¡r •1 V A X r /r - IV + r-- — -- t-\ 1 ^


J Ú ( ó + ( r / r m) 6J S + ( r/ rm)
G10
(9.16)
(<5 + (r /rm)W
El texto de Maitland et al. (1981) constituye una referencia básica en la cual
se han recopilado un elevado número de funciones empíricas utilizadas en el estudio
de las interacciones intermoleculares.

9.1.5.2 Sistemas poliatómicos


Al considerar sistemas poliatómicos el número de variables aumenta
(además de la distancia se necesita conocer la orientación relativa) y por tanto es
difícil representar adecuadamente la energía de interacción.
Una de las alternativas más utilizadas consiste en descomponer la energía
para un par de moléculas en una suma de interacciones entre ’sitios de interacción’
que a menudo coinciden con los núcleos atómicos de las diferentes moléculas. Para
este tipo de interacciones sitio-sitio se elige una función sencilla como la de U 1 2 -6 .
Este tipo de función potencial se conoce como el potencial multicentro. Para el caso
de la U 1 2 -6 aplicada a dos moléculas diatómicas, la función toma la forma:

(,t - Í Í 4 í 4 f c /r * ) “ - K / ''J ‘] <9-17)


a=lb=l

Otra aproximación utilizada es el potencial de expansión (ec. 9.18), que es,


en principio, capaz de reproducir exactamente cualquier superficie de potencial. Su
eficacia depende de la rapidez en que converge la expansión.

u(r,ü)) = 2 2 2 U ü(r)F¡jk(®) • (9.18)


i j k
Las expresiones indicadas hasta ahora deben ser aplicables a pares de
moléculas iguales o diferentes. Aunque en general la función potencial para un par de
moléculas distintas (a-b) no tiene porque estar relacionada con las funciones de los

425
Índice
Capítulo 9

pares a-a y b-b, es a menudo muy útil tener una expresión aproximada para las
interacciones a-b basada en las interacciones a-a y b-b.
Así las expresiones para o ab y eab en función de los valores para los
sustancias puras se obtienen a partir de reglas de combinación. Las más utilizadas
son las reglas de Lorentz-Berthelot, en las cuales el diámetro de colisión se calcula a
partir de la media aritmética y la profundidad del pozo a partir de la media
geométrica de los valores para las especies puras. En aquellos casos en que las
interacciones entre moléculas diferentes pueden determinarse experimentalmente, la
media geométrica a menudo sobrestima £ab, especialmente cuando los pozos de
potencial de las sustancias puras son muy diferentes. Por este motivo se han sugerido
otras combinaciones, como por ejemplo la media armónica para sab:

J. 1 1
(9.19)
'ab 2 £ aa £ bb

9.1.6 ”Non-pairwise Additivity”


Cuando interaccionan más de dos moléculas, la energía de interacción total
generalmente no es exactamente igual a la suma de las interacciones entre pares. Esta
desigualdad puede justificarse por el hecho de que la presencia de una tercera
molécula perturba la interacción entre las otras dos.
Axilrod y Teller determinaron la contribución atractiva no aditiva en la
interacción de tres átomos a partir de la expresión (ec. 9.20) y mostraron que en
muchas ocasiones esta contribución es significativa:

C6 C6 C6 (3 c o s 0 a c o s 0 h c o s 0 c + 1)
u,K= - f * 4 - * ~ f + v .t* -------- 7------- — - (9.20)
*ab **bc *ac v a b * b c * a c /

En esta expresión únicamente se han considerado las interacciones dipolo-


dipolo y 0a, 0b y 0Crepresentan los ángulos internos del triángulo que forman. Los
tres primeros términos corresponden a la adición de las energías intermoleculares de
pares de moléculas. El término extra no aditivo se conoce como el término tridipolar
de Axilrod-Teller. Para moléculas no esféricas, esta energía tridipolar depende de la
orientación relativa de las moléculas, así como de su separación.

426
Índice
Capítulo 9

Las interacciones repulsivas de corto alcance se espera que sean no aditivas.


Cálculos ab initio para moléculas pequeñas sugieren que estos efectos son
únicamente importantes a separaciones pequeñas.
La importancia de estas contribuciones no aditivas se da fundamentalmente
en sólidos, líquidos y gases a elevada densidad, donde su contribución puede llegar a
ser del orden de un 1 0 % aproximadamente.

9.2 M EC Á NIC A M OLECULAR


La mecánica molecular es uno de los grandes métodos de cálculo disponibles
en la actualidad para el estudio de sistemas químicos. Como cualquier técnica, la
mecánica molecular presenta una serie de ventajas e inconvenientes. El conocimiento
de las condiciones de aplicación y de las limitaciones es por tanto de vital
importancia y puede evitamos muchas horas de cálculo innecesarias o bien la
obtención de resultados erróneos. Entre las ventajas de la mecánica molecular
podemos destacar la rapidez de los cálculos al compararlos con los métodos
cuánticos, además de la posibilidad de aplicar estos métodos a sistemas químicos
muy grandes, inaccesibles para los métodos cuánticos, como tendremos ocasión
posteriormente de comprobar en la parte final de este capitulo. Entre las desventajas
destacan que al no resolver la ecuación de Schrödinger, estos métodos no pueden ser
aplicados a sistemas que impliquen ni una rotura ni formación de enlaces.
En este apartado se presenta una descripción general de las características de
los campos de fuerza. Posteriormente se procederá a determinar las diferencias
significativas con respecto a las formulaciones utilizadas para definir los campos de
fuerza. Estas formulaciones conducen a campos de fuerza completamente diferentes
y por tanto con aplicaciones también diferentes, que el usuario debe conocer para que
de esta forma la elección del método a utilizar para la resolución de un problema
particular sea lo más adecuada posible.

9.2.1Bases de la Mecánica Molecular


La mecánica molecular, a diferencia de los métodos cuánticos, se basa en un
modelo mecano clásico simple de la estructura molecular. En este modelo, las
moléculas son tratadas como un conjunto de átomos en el espacio, unidos entre sí
mediante enlaces y gobernados por un conjunto de funciones de potencial mecano-
clásicas.

427
Índice
Capítulo 9

Como consecuencia directa del modelo anterior, la energía total de una


molécula se obtiene como la suma de una serie de contribuciones o términos
perfectamente definidos que dependen de las coordenadas espaciales de los núcleos.
Los términos que componen la función energía pueden ser agrupados en:
■ Términos de valencia: asociados a movimientos de tensión, flexión, torsión y
flexión fuera del plano. Son términos que dependen directamente de los enlaces
químicos.
■ Términos de no valencia: son los términos que reflejan las interacciones a larga
distancia entre átomos no enlazados. Engloban las interacciones de van der
Waals y las interacciones electrostáticas.
■ Términos cruzados: estos términos aparecen al considerar que los enlaces,
ángulos de enlace y diedros en una molécula no están aislados sino que pueden
estar influenciados por los átomos y grupos químicos vecinos. Vienen
representados por funciones que dependen de dos o más coordenadas de
movimiento (p. e. término tensión-flexión, término tensión-torsión, etc.).

Todos estos términos vienen descritos mediante una serie de expresiones


matemáticas, que serán analizadas en apartados posteriores, y que contienen unas
constantes que serán determinadas mediante el proceso de parametrización. El
conjunto de funciones, parámetros, etc. de los diferentes términos de la función
energía constituyen el campo de fuerza.
Los campos de fuerza presentan fundamentalmente tres características
diferenciadoras:
a) La forma y el número de términos que constituyen la función energía total.
b) El proceso de parametrización.
c) Introducción del concepto de ntipo de átomo". Al tratarse de métodos basados en
la mecánica clásica no "detectan” las propiedades de los átomos sino que los
consideran como puntos en el espacio. Esto implica que un C(sp3) tiene propiedades
diferentes a las de un C(sp2), por tanto estas dos hibridaciones corresponden a
diferentes tipos de átomos.

9.2.2 Clasificación de los campos de fuerza


Actualmente los campos de fuerza pueden ser clasificados en función de
diferentes criterios. Uno de estos criterios es la forma de los términos utilizados en la
expresión de la energía, según el cual pueden distinguirse, básicamente, tres tipos de

428
Índice
Capítulo 9

campos de fuerza:
■ Clase I. Se caracterizan por no contener términos cruzados y además porque los
términos de flexión y tensión vienen descritos mediante funciones armónicas (p.
e.: AMBER, CHARMM, MM2 y CVFF, aunque estos dos últimos poseen
algunos términos cruzados pero son en esencia clase I).
■ Clase II. Estos campos de fuerza ya consideran términos cúbicos y superiores
para describir las energías de tensión y flexión, así como términos cruzados. Un
campo de fuerza del tipo II debe reproducir adecuadamente las propiedades de
moléculas aisladas pequeñas (propiedades estructurales, termodinámicas, datos
espectroscópicos y momentos dipolares), de fases condensadas (energías de
sublimación, calores de vaporización de líquidos) y de sistemas
macromoleculares. Como ejemplos más significativos podemos indicar los
campos de fuerza MM3 y CFF93.
■ Clase III. Consideran no sólo los términos mecánicos señalados en el campo de
fuerza de clase II, sino también incluyen efectos químicos como la
electronegatividad y la hiperconjugación (p. e., MM4).

Atendiendo al origen de los datos utilizados en el proceso de


parametrización, se pueden distinguir fundamentalmente dos tipos de campos de
fuerza. Los campos de fuerza experimentales, caracterizados porque la mayoría de
datos utilizados para determinar las diferentes constantes de fuerza de la expresión de
la energía provienen de medidas experimentales y los campos de fuerza mecano
cuánticos, derivados a partir de parámetros fundamentalmente ab initio.

9.23 Campos de Fuerza Experimentales


En este apartado se analizan las características fundamentales del campo de
fuerza experimental MM3 y luego se comparan con otros campos de fuerza como el
AMBER, OPLS, CHARMM y MM4.

9.2.3.1 MM3 (Molecular Mechanics 3)


El campo de fuerza MM3 (Allinger et al., 1989; Lii and Allinger, 1989a; Lii
and Allinger, 1989b) surgió con el objetivo de mejorar globalmente el campo de
fuerza MM2, el cual daba buenos resultados de geometrías y energías moleculares,
pero en el que las predicciones de las frecuencias vibracionales eran muy mejorables.
El MM3 puede considerarse por tanto como un método bastante adecuado para el

429
Índice
Capítulo 9

estudio energético, estructural y de frecuencias vibracionales en compuestos


orgánicos. Posteriormente, Lii and Allinger (1991) desarrollaron parámetros
específicos para amidas, polipéptidos y proteínas. En conjunto, se trata de un campo
de fuerza de la clase II, cuya función energía total (ec. 9.21) contiene nueve términos,
los cuatro primeros son términos de valencia, el quinto y sexto constituyen los
términos de no valencia y finalmente los últimos tres términos son cruzados. Estas
contribuciones están descritas por las expresiones matemáticas que se detallan a
continuación.

^total = 2 ^ + 2 + 2 + 2 + 2 ^ vdw +
enlaces ángulos diedros ángulos fuera del plano

2Eei ec«+ 2 E¿e + 2 Eto + 2 Eee (9.21)


elect enlace/ángulo enlace/diedro ángulo/ángulo

a) Tensión
Este término describe el cambio energético asociado al alargamiento o
acortamiento de un enlace en una molécula. Dicha variación puede describirse
adecuadamente mediante el potencial de Morse (ver figura 9.3):

E, = De {1 - exp [-(a (9.22)

Sin embargo esta ecuación no es muy adecuada en el cálculo computacional.


Por este motivo la mayoría de campos de fuerza consideraron inicialmente sólo la
aproximación armónica:

Ee = 1/2 ke (£-£0f (9.23)

Como puede apreciarse en la figura 9.3, estas expresiones muestran un


comportamiento similar en la zona de equilibrio pero difieren considerablemente en
las regiones alejadas de la situación de equilibrio.

430
Índice
Capítulo 9

Por este motivo, ya el campo


de fuerza MM2 introdujo un término
cúbico correspondiente a la
anarmonicidad. Sin embargo esta
representación del enlace da
resultados erróneos cuando la
geometría inicial está alejada del
equilibrio, ya que es posible que el
proceso de minimización conduzca a
un mínimo local.

Figura 9.3 Comparación entre las


diferentes funciones utilizadas para
definir el término de tensión.

Con el objeto de mejorar esta deficiencia, el campo de fuerza MM3 emplea una
función de cuarto orden que además representa más adecuadamente el potencial de
Morse (ver figura 9.3)

E , MM3 = 71.94 k, [ l-2 .5 5 (« 0) + (7/12) 2.55 (M 0)2] (9.24)

En esta expresión ke es la constante de fuerza de tensión y £ 0 es la distancia de enlace


estándar. Estos dos parámetros dependen de los tipos de átomos enlazados. Para cada
combinación de átomos se deberá calcular un valor de ke y otro de £0. Estas son las
dos constantes que se obtendrán en el proceso de parametrización y que contendrá el
programa de mecánica molecular. Finalmente, í es la distancia interatómica en la
geometría actual,

b) Flexión
Para describir la energía asociada al aumento o disminución del ángulo de
enlace era corriente el empleo de funciones de potencial armónicas. En la mayoría de
431
Índice
Capítulo 9

situaciones esta aproximación parecía funcionar bastante bien. Sin embargo, en


anillos que presentan mucha tensión esta aproximación no permitía obtener
resultados correctos. Por este motivo este campo de fuerza emplea una expresión de
cuarto grado.
E0MM3 = 0.021914 ke (0 -0 o) 2 x
[ 1 - 0.014 (0-0o) + 5.6 10 5 (0-0o) 2 - 7.0 10'7 (0-0o) 3 + 9.0 1 0 10 (0-0o)4] (9.25)

En esta expresión k0 y 0O son, respectivamente, la constante de fuerza de


flexión y el ángulo de enlace estándar. Son dos parámetros dependientes de cada trío
de átomos considerados y que deberán calcularse en el proceso de parametrización
del método.

c) Torsión
El término de energía de torsión está representado por una expansión de
Fourier en serie de cosenos:
N

Ew= T Vn/2 [1 + eos (nco-5)] (9.26)

La periodicidad de las funciones


coseno crea los múltiples pozos de
energía potencial que se requieren para
la descripción de este término
energético. El número de términos
utilizados en la expansión depende del
tipo de ángulo diedro considerado y
Figura 9.4. Definición del ángulo
del campo de fuerza.
diedro

Los campos de fuerza MM2 y MM3 utilizan tres términos.


EwMM3 = (Vy2) (1+ eos 03) + (Va/2) (1 - eos 2o)) + (V3/2) (1+ eos 3ü)) (9.27)

donde oa es el ángulo diedro, definido, de acuerdo a la nomenclatura de Ingold, es


decir, el ángulo formado entre los planos ABC y BCD (ver figura 9.4).

432
Índice
Capítulo 9

d) Flexión fuera del plano


En las moléculas planas con centros trigonales el desplazamiento de este
átomo trigonal por encima y por debajo del plano molecular constituye un tipo de
distorsión que requiere energía. Es un modo de movimiento inicialmente distinto de
la tensión, la flexión y la torsión y por tanto debe ser considerado.
Existen diferentes formas de definir la coordenada, como puede apreciarse
en la figura 9.5:

Figura 9.5. Definición de la coordenada de movimiento del término de flexión fuera


del plano: a) Diedro de WDC, b) Piramídalidad, c) Diedro impropio.

a) Diedro de Wilson, Decius y Cross, se define como el ángulo (x) entre cualquier
enlace que se extiende desde el átomo central y el plano definido por los otros dos
enlaces. Esta definición es la que se emplea en el MM3 y utiliza una función
armónica para describir las interacciones:

E5c= V 2k x X 2 . (9.28)

b) La piramídalidad del átomo central se define como la distancia desde ese átomo al
plano formado por los otros tres átomos unidos al central (x1). La energía de este
movimiento normalmente se representa con la expresión:

Ex = l t l \ t 2 (9-29)

c) El diedro impropio se define como el ángulo formado por dos planos que
contienen al átomo central y a otros dos átomos. La denominación de impropio es
debido a que considera cuatro átomos como si estuvieran enlazados de la misma
forma que un verdadero ángulo de torsión. Esta es la mejor definición para la

433
Índice
Capítulo 9

coordenada de movimiento, pues al utilizar un término de la serie de Fourier (ec.


9.30), permite utilizar las mismas rutinas de cálculo que para los diedros generales.
Ex = kx(l-c o s 2 X") (9.30)
En todos los casos es la magnitud a parametrizar.

e) Interacciones de van der Waals


En este término se incluyen todas las interacciones entre átomos que no están
unidos directamente o bien enlazados a un átomo central común. Esta definición
implica que las interacciones no enlazantes intramoleculares son tratadas con los
mismos potenciales y constantes de fuerza que las interacciones intermoleculares.
Las interacciones de van der Waals se pueden expresar mediante una función
del potencial de LJ 12-6 (figura 9.6 a), como hemos visto en el apartado 9.1.
Evdw= e ¡j[(ru*/rü) ,2 - 2 ( r rj7 rij)6] (9.31)

Sin embargo,, en general la parte repulsiva del potencial U 12-6 es


demasiado fuerte para describir adecuadamente las interacciones entre átomos a
elevadas distancias. En compuestos orgánicos el potencial de U 9-6 conduce a
mejores resultados, sin embargo no suele utilizarse en los campos de fuerza debido a
que requiere mayor tiempo de cálculo.
Los campos de fuerza MM2 y MM3 utilizan el potencial de Hill derivado del
potencial de Buckingham, con un término exponencial que describe el término
repulsivo.

EvdwMM3 = 6¡j [-2.25 (V/i-ij)6 + 1.84 xlO5 exp(-12.00 (r,/^ * )] (9.32)

En ambas expresiones, Ey se calcula a partir de la media geométrica. de


valores individuales, mientras que r¡j* se calcula como la suma de los radios de van
der Waals de los átomos implicados (ver apartado 9.1).
Sin embargo este potencial de Hill no describe adecuadamente las
interacciones a corta distancia (figura 9.6 b), por tal motivo si rv*/riy > 3.31, para
evitar el denominado colapso de Van der Waals, se utiliza una expresión que
únicamente considera un término repulsivo definido como:

EvdwMM3 = 336.176 e¡j (r¡j7r¡j)6 (9.33)

434
Índice
Capítulo 9

Figura 9.6. a) Potencial de LJ 12-6. b) Potencial de Hill

f) Energía electrostática
Históricamente ha sido descrita mediante la aproximación dipolar o bien
mediante la aproximación monopolar.
La aproximación dipolar es la más antigua y consiste en asignar dipolos
puntuales a enlaces entre diferentes tipos de átomos y calcular la energía
electrostática a partir de las interacciones dipolo-dipolo, de acuerdo con la expresión
de Jeans:
VMM3dipolo = ¡iABMcd (eos X -3 eos otABcosoccd)/ Dr,/ (9.34)

donde, |iAB y |¿CD son los momentos dipolares de los dos enlaces, % es el ángulo
diedro entre ellos, r es la distancia entre sus puntos medios y ocAB y a CD son los
ángulos entre los enlaces y la línea que une sus puntos medios, siendo D la constante
dieléctrica efectiva (figura 9.7),
Sin embargo esta aproximación puede que no simule adecuadamente
sistemas muy polares o cargados y además ralentiza los cálculos en sistemas con una
elevada cantidad de átomos. Por tanto se optó por utilizar cargas atómicas parciales
localizadas sobre cada átomo, de manera que permitieran determinar adecuadamente
los momentos dipolares experimentales. De esta forma, la energía electrostática se
calcula a partir de la expresión de Coulomb.

435
Índice
Capítulo 9

UiUj

D rij (9-35)

Figura 9.7. Descripción de los parámetros incluidos en la definición del término


electrostático.

Recientemente, algunos campos de fuerza han introducido las interacciones


electrostáticas de segundo orden que permiten describir por ejemplo la
polarizabilidad.

g) Términos Cruzados
La influencia de los átomos y grupos químicos vecinos sobre las distancias
de enlace, ángulos de enlace y ángulos diedro conduce a la introducción de los
términos cruzados. Así, por ejemplo, cuando un ángulo de enlace se hace más
pequeño, las distancias de enlace tienden a aumentar para que los átomos no se
aproximen tanto. Evidentemente, la dependencia es pequeña pero debe ser
considerada en la descripción del campo de fuerza si se pretende reproducir
correctamente las frecuencias vibracionales. En principio, cada movimiento en la
molécula está asociado a los restantes movimientos con un término cruzado. Sin
embargo, si dos movimientos están muy alejados entre sí en la molécula, el término
cruzado será prácticamente despreciable. La mayoría de los campos de fuerza para
sistemas biológicos omiten estos términos.
La importancia de estos términos radica en que incrementan la precisión del
campo de fuerza, debido a que su inclusión permite que las constantes de tensión,
flexión ..., no presenten contribuciones de enlaces vecinos, yaque estas interacciones
son consideradas en el término cruzado correspondiente.
El método MM3 considera términos cruzados del tipo (figura 9.8):
Interacción tensión-flexión.

436
Índice
Capítulo 9

Emum = 2.51118 k,e [ ( « o ) + (t9-io')\ ( 6 - © o) (9.36)


Interacción flexión-flexión.

E00^MM3= -0.021914 kee^(e-0o)( 0 5-05o) (9.37)


Interacción tensión-torsión

E£(ÚMM3 = 11.995 (W 2 ) (¿-¿0) (1 + eos 3co) (9.38)


Interacción flexión-torsión
Esta interacción no se incluye por defecto, si bien en algunas circunstancias
es conveniente introducirla mediante la expresión:

E0ooMM3 = (kem/2) (0-0p) (1 - eos C0) (9.39)

Figura 9.8 Términos


cruzados incluidos en el campo
de fuerza MM3. Tensión-
flexión (superior izquierda);
flexión-flexión (superior
derecha); tensión-torsión
(inferior izquierda) y flexión-
torsión (inferior derecha).

Parametrización
El punto más delicado en el proceso de desarrollo de un campo de fuerza es
la parametrización. Una vez que tenemos las funciones analíticas que determinan las
diferentes contribuciones a la energía total, deben calcularse las constantes de estas
ecuaciones de manera que los resultados obtenidos reproduzcan lo mejor posible la
geometría, la energía y otras propiedades moleculares.
Si analizamos el proceso de parametrización en un campo de fuerza
experimental como el MM3, podemos apreciar la existencia de algunos problemas
considerables. Uno de ellos es la elección de los datos experimentales, así por
ejemplo, la distancia de enlace (AH) calculada para una misma molécula mediante
técnicas de difracción (difracción de electrones o rayos X) es distinta de la obtenida
437
Índice
Capítulo 9

por espectroscopia de microondas. En estos casos, el campo de fuerza puede ser


parametrizado para ajustarse a uno de los dos valores pero no a los dos.
Un segundo problema hace referencia al hecho de que en algunas ocasiones
los datos experimentales no son correctos debido a la dificultad de obtención y por
tal motivo se aconseja utilizar un conjunto amplio de valores de manera que los
posibles errores puedan afectar lo menos posible a los valores parametrizados.
Una tercera dificultad es el elevado número de parámetros que en teoría se
requiere para generar un campo de fuerza. Además, muchos de estos parámetros no
pueden ser calculados debido a la ausencia de datos experimentales para tales
combinaciones. Como veremos en próximos apartados, la derivación de parámetros a
partir de métodos ab initio ha paliado en parte la ausencia de valores experimentales,
especialmente torsionales.
El proceso de derivación de las constantes de fuerza y otros parámetros,
requiere inicialmente la definición de un conjunto de moléculas y algunas
propiedades moleculares. Los valores experimentales que se suelen emplear son:
datos estructurales en fase gaseosa derivados de espectros de microondas o
difracción de electrones; estructuras cristalinas derivadas de rayos X y de medidas de
dispersión inelástica de neutrones; frecuencias vibracionales obtenidas a partir de los
espectros IR y Raman; barreras torsionales obtenidas fundamentalmente a partir de la
forma de las bandas RMN y tiempos de relajación; energías conformacionales
determinadas a partir de datos espectroscópicos y termoquímicos; parámetros de
interacciones no enlazantes determinados a partir de constantes de red, energías de
sublimación, etc.
Una vez definido todo el conjunto de valores se procede a la
parametrizacióñ, o sea, al proceso de regresión no lineal que permitirá determinar las
constantes arbitrarias que aparecen en los diferentes términos energéticos. El proceso
de minimización utilizado en el MM3 es bastante común y es la denominada
aproximación de grupos funcionales. Dicho proceso consiste en determinar
inicialmente los parámetros para un determinado grupo químico, como por ejemplo
los parámetros de hidrocarburos, mediante un ajuste de los datos experimentales
sobre alcanos. Posteriormente, manteniendo fijos estos valores, se trata de ajustar los
resultados experimentales de alcoholes y obtener unos parámetros para el oxígeno y
el hidrógeno polar, y así sucesivamente. Esta aproximación simplifica enormemente
el proceso de parametrizacióñ al no tratar conjuntamente con todos los parámetros
del campo de fuerza, pero sin embargo es posible que plantee algunas dificultades ya

438
Índice
Capítulo 9

que de esta forma se obtendrán unos parámetros muy ajustados para las estructuras
originales, pero no tanto para la descripción de otras estructuras.

Funcionamiento de un programa de Mecánica Molecular


El proceso general que se sigue en el estudio de un sistema mediante un
programa de mecánica molecular es el que se muestra en el diagrama de la figura 9.9.
El primer paso es la determinación de las distancias interatómicas, ángulos de enlace,
ángulos diedros y conectividad de la geometría inicial. La presencia de la
conectividad' es importante ya que todos los sumatorios de las expresiones
energéticas se extienden sobre todos los enlaces, ángulos, etc., y el modelo clásico, al
no considerar los electrones, no tiene la posibilidad de precisar la existencia o no de

Los valores obtenidos son


Geometría Inicial utilizados en las distintas expresiones
u de las funciones de potencial definidas
Energía Inicial
U anteriormente para calcular la energía.
Optimizad ón
Este valor de energía es específico
U
Geometría Optimizada para cada campo de fuerza y no se
Determinación propiedades
moleculares
corresponde con ninguna definición
clásica de la energía, aunque está
relacionada con el calor de formación.
Por tanto estos valores son válidos
Figura 9.9 Diagrama de flujo de un únicamente a efectos comparativos
programa de mecánica molecular entre diferentes moléculas con los
mismos tipos de átomos.
Posteriormente se procede al proceso de optimización. Se tratá de un proceso
iterativo en elcualse va minimizando la energía en función de la geometría hasta
que el proceso ha convergido. La geometría finalmente obtenida será utilizada para el
cálculo de momentos de inercia, momentos dipolares, calores de formación, etc.

9.2.3.2 AMBER (Assisted Model Building and Energy Refinement)


En 1984 se desarrolló la primera versión f,united atorn" (en la cual los
átomos de hidrógeno enlazados a carbonos se engloban en los parámetros del
heteroátomo) del campo de fuerza AMBER (Weiner et al., 1984) que mejoraba

439
Índice
Capítulo 9

aprecíablemente los parámetros del término electrostático y de las interacciones de


van der Waals del campo de fuerza de Gelin y Karplus desarrollado previamente.
Posteriormente se desarrolló una versión "all atorn" del campo de fuerza AMBER
(Weiner et al.,
1986). Con todos estos antecedentes, se puede considerar al campo de
fuerza AMBER adecuado para su aplicación en moléculas de interés biológico como
proteínas, ácidos nucleicos y otros sistemas macromoleculares.
La función de energía está constituida por seis términos: tensión, flexión,
torsión, interacciones de van der Waals, electrostáticas e interacciones por puente de
hidrógeno.
Et0,ai= I k, + £ ke (0-eo)2+ I (Vn/2) (1+ eos (nü)-8))
enlaces ángulos diedros

+X [A1J/r 1JI2 -B 1J/r1J6 + qiqj/D rIJ]+ . £ [ C ^ a h 12 - DAH/rAH10]


i <j puentes de hidrógeno

(9.40)
Las características más importantes de esta ecuación de la energía, radican en
que los términos de tensión y flexión utilizan funciones de segundo grado y además
no se incluyen términos cruzados. Se trata por tanto de un campo de fuerza de la
clase I.
El término torsional incluye parámetros generales, específicos e impropios.
Otra diferencia importante con respecto al MM3 es que los parámetros torsionales
dependen únicamente de los átomos centrales.
El término de van der Waals se describe mediante una función del tipo 12-6,
mientras que las cargas atómicas del término electrostático se derivan a partir de
cálculos mecano-cuánticos, utilizando bases del tipo STO-3G. Este método permite
el uso de una constante dieléctrica que depende de la distancia cuyo objetivo es el de
mimetizar el efecto de polarización en las interacciones atractivas dando un mayor
peso a las interacciones más próximas y también el de ayudar a compensar la falta de
solvatación explícita. Sin embargo, en sistemas en fase gas y para sistemas
moleculares con moléculas explícitas de disolvente sería más apropiado utilizar un
dieléctrico constante (ver apartado 9.7). Tanto las interacciones de van der Waals
como las interacciones electrostáticas se calculan entre átomos separados por al
menos tres enlaces.
Como se ha comentado anteriormente, se incluye un término explícito para
representar el enlace por puente de hidrógeno que permite una mejor descripción
tanto energética como estructural de este tipo de interacción tan importante en los
sistemas biológicos. Este término reemplaza al de van der Waals al analizar las
440
Índice
Capítulo 9

interacciones 1-5 y superiores entre un átomo de hidrógeno ácido y el posible aceptor


de este protón.
A pesar de que el campo de fuerza AMBER continúa funcionando
adecuadamente presenta una deficiencia importante. Sus autores indicaron que los
mismos parámetros podían utilizarse tanto en sistemas sin inclusión explícita del
disolvente como en sistemas con inclusión explícita del disolvente, simplemente
considerando la constante dieléctrica como dependiente de la distancia o no,
respectivamente. Con el objetivo de que este tipo de sistemas sean tratados los más
adecuadamente posible, recientemente se ha desarrollado el campo de fuerza de
segunda generación AMBER94 (Cornell et al., 1995) basado en el campo de fuerza
AMBER original y con el objetivo básico de introducir las interacciones disolvente-
disolvente y disolvente-soluto.
El uso de cargas puntuales en la mayoría de los campos de fuerza impide que
estos métodos tengan en cuenta el fenómeno de la redistribución de la carga eléctrica
en un sistema molecular. Actualmente la versión AMBER 4.1 (Pearlman et al., 1995)
ha introducido una aproximación para la determinación de la redistribución de carga.
La metodología consiste en utilizar unas cargas fijas sobre los átomos e introducir la
idea de que los átomos pueden tratarse como objetos con capacidad de deformación.
De esta manera, la interacción de las polarizabilidades y las cargas puntuales genera
unos dipolos inducidos en cada átomo.

9.2.3.3 OPLS (Optimized Potential for Liquid Simulations)


Al igual que el AMBER, el campo de fuerza OPLS (Jorgensen and Tirado-
Rives, 1988; Pranata et al., 1991) se diseñó para el estudio de proteínas y ácidos
nucleicos. La diferencia fundamental con él radica en la inclusión de parámetros para
las interacciones no enlazantes que fueron cuidadosamente desarrollados a partir de
simulaciones Monte Cario en estado líquido de pequeñas moléculas. De esta forma,
este campo de fuerza es capaz de describir más adecuadamente las simulaciones
donde se incluye explícitamente al disolvente y donde las interacciones no enlazantes
son particularmente importantes.
Con este proceso de desarrollo, es lógico que la expresión de la energía
OPLS sea la misma que la utilizada en el método AMBER con la diferencia de que el
término de interacción por puente de hidrógeno ha sido eliminado. Los parámetros y
funciones para los términos de tensión, flexión y torsión son los mismos que los
desarrollados en el campo de fuerza AMBER (1984). Las interacciones no enlazantes

441
Índice
Capítulo 9

intermoleculares son representadas mediante los términos coulombiano y de LJ (12-


6 ) al igual que en el AMBER. Sin embargo como ya se ha comentado anteriormente

los parámetros de van der Waals han sido mejorados y las cargas han sido obtenidas
empíricamente a partir, principalmente, de las propiedades de los líquidos

9.2.3.4 CHARMM (Chemistry at HARvard Macromolecular Mechanics)


El campo de fuerza CHARMM fue inicialmente desarrollado como un
"united atorn" para el estudio fundamentalmente de aminoácidos (Brooks et al.,
1983). Actualmente el campo de fuerza utiliza una representación ,fall atorn".
Así como indican los autores en el manuscrito inicial, el campo de fuerza
AMBER es el que más se asemeja al CHARMM tanto en la concepción como en la
formulación. La función energía se compone de un conjunto de términos enlazantes
(tensión, flexión, torsión y torsión impropia), un conjunto de interacciones no
enlazantes (interacciones de van der Waals y electrostáticas), un término de puente
de hidrógeno y finalmente un término de restricciones. Al tratarse de un campo de
fuerza de clase I, tanto el término de tensión como el de flexión vienen descritos
mediante una función armónica.
Con respecto a las interacciones no enlazantes, la contribución de van der
Waals viene determinada por una función LJ 12-6 multiplicada por una función que
permite variar gradualmente el potencial a una distancia determinada y no computar
ninguna interacción cuya distancia sea superior a ese valor. Esta función es muy
importante en sistemas muy grandes donde el cálculo de todas las interacciones
incrementa excesivamente el tiempo de cálculo.
El término de interacciones por puente de hidrógeno viene definido por una
función de LJ 12-10 multiplicada por una serie de funciones que dependen de la
distancia y los ángulos del enlace de hidrógeno.

9.2.3.5 MM4 (Molecular Mechanics 4)


El campo de fuerza MM4 ha sido desarrollado recientemente por el grupo de
#
Allinger (Allinger et al., 1996a; Nevins et al., 1996a; Nevins et al., 1996b; Nevins
and Allinger, 1996; Allinger et al., 1996b) con la intención de mejorar a su
predecesor fundamentalmente en el cálculo de frecuencias vibracionales, aunque
también se ha mejorado el cálculo de barreras rotacionales para moléculas
tensionadas y se ha incluido una nueva metodología para la obtención de los calores
de formación.

442
Índice
Capítulo 9

La expresión de la energía total del campó de fuerza MM4 viene dada como
un sumatorio de quince términos energéticos, algunos de los cuales son nuevos, otros
han sufrido algunas modificaciones con respecto al MM3 y finalmente otros
coinciden con los del campo de fuerza MM3. Los términos idénticos a los del MM3
engloban los de tensión, flexión, torsión, van der Waals, electrostático (utiliza
interacciones dipolo-dipolo por defecto y permite interacciones carga-carga e
interacciones carga-dipolo), flexión-flexión y tensión-flexión. Por otra parte, el
término de torsiones impropias reemplaza al término de flexiones fuera del plano
utilizado en MM3, debido a una simplicidad de cálculo. El otro tipo de interacción
que sufre una modificación es la tensión-torsión. En el campo de fuerza MM4
existen dos casos en los cuales se tiene en cuenta este término. El primero hace
referencia a la variación de la longitud del enlace central de un ángulo diedro, y el
segundo caso se refiere a la variación de la longitud de un enlace terminal en un
ángulo diedro. Este término es importante en compuestos con pares de electrones
solitarios (efecto Bohlmann) y en compuestos con dobles enlaces conjugados
(hiperconjugación). Finalmente, este campo de fuerza introduce seis términos
cruzados que no habían sido considerados anteriormente: flexión-torsión-flexión,
torsión impropia-torsión-torsión impropia, tensión-tensión, flexión-torsión, torsión-
torsión impropia y finalmente, torsión-torsión.
La inclusión de estos términos cruzados constituye una mejora fundamental
con respecto al MM3 en el estudio estructural de moléculas que presentan mucha
tensión y en la reproducción de frecuencias vibracionales.

9.2.4 Campos de Fuerza Universales


Una de las dificultades de la mayoría de campos de fuerza experimentales,
como los vistos anteriormente, es que no pueden ser aplicados a compuestos
inorgánicos o a aquellos compuestos con combinaciones poco frecuentes de
elementos, debido a la ausencia de parametrización para estas combinaciones.
Una de las alternativas en el estudio de estos sistemas consiste en considerar
que las interacciones metal-ligando no se describen a partir del concepto de enlace,
sino mediante una combinación de interacciones de van der Waals y electrostáticas.
Este modelo, conocido como iónico o no enlazante, simplifica mucho el análisis de
estos sistemas ya que el número de parámetros es pequeño, los ligandos son libres de
asociarse y disociarse, y de esta manera se eliminan muchos de los problemas
relacionados con los números de coordinación y el tipo de enlace en compuestos

443
Índice
Capítulo 9

inorgánicos. Uno de los ejemplos más utilizados dentro de estos modelos es el campo
de fuerza YETI (Vedani, 1988; Vedani and Huhta, 1990).
Sin embargo, ya que los campos de fuerza no enlazantes requieren un
especial tratamiento de las fuerzas electrostáticas y de van der Waals, que a la postre
limita la transferibilidad de los parámetros, muchos autores han optado por
desarrollar modelos enlazantes. En estos modelos, se debe establecer explícitamente
un enlace entre el metal y los ligandos. Evidentemente esta situación plantea una
problemática importante. Estos campos de fuerza deben ser capaces de tratar con
diferentes números de coordinación, además deben tener en cuenta la rotación sobre
los enlaces metal-ligando al parametrizar el término torsional, también tienen que
considerar el tratar con múltiples ángulos ligando-metal-ligando y finalmente donde
colocar el enlace. Dentro de este nuevo modelo destacan los campos de fuerza
DREIDING (Mayo et al., 1990), UFF (Rappé et al., 1992) y los campos de fuerza
SHAPES y VALBOND desarrollados por el grupo de Landis (Allured et al., 1991;
Root et al., 1993).
Estos campos de fuerza también son conocidos con el nombre de universales
ya que son válidos tanto para el estudio de compuestos orgánicos como de
compuestos inorgánicos y estructuras formadas con complejos de metales de
transición.
Estos nuevos métodos universales utilizan constantes de fuerza generales y
parámetros geométricos basados en consideraciones simples como la hibridación, de
forma que la cantidad de tipos de átomos disminuye considerablemente. Obviamente
se pierde precisión, pero la parametrización es más sencilla y el campo puede
utilizarse para hacer predicciones sobre combinaciones infrecuentes de elementos. En
contrapartida, debido a la simplicidad del campo de fuerza, estos no constituyen un
método válido para la determinación de las frecuencias vibracionales.
Para aquel lector que desee profundizar más en esta nueva área en expansión
de los campos de fuerza, le remitimos a dos extensos reviews sobre los campos de
fuerza para la modelización de compuestos inorgánicos y órganometálicos que han
sido publicados recientemente por Zimmer (1995) y Landis (Landis et al., 1995).

9.2.4.1 DREIDING
Apoyándose en la filosofía indicada anteriormente, todas las distancias de
enlace se derivan de radios atómicos, existe únicamente una constante de fuerza para
los términos de tensión, flexión, e inversiones y sólo seis valores diferentes para las

444
Índice
Capítulo 9

barreras torsionales. La función energía se expresa como la suma de las interacciones


enlazantes y las interacciones no enlazantes y no se incluyen términos cruzados:
Etotai = I E/ + £ Ee + X E<b + X Ei + ^ Evdw +
enlaces ángulos diedros términos de inversión vdW

X Eeleot + X EpteH ( 9 .4 1 )
elect puentes de hidrógeno

A modo de ejemplo, el usuario puede representar el término de tensión bien


con una función del oscilador armónico o bien con una función de Morse, donde la
distancia de enlace de equilibrio entre dos átomos se obtiene como la suma de los
radios de los elementos menos un término corrector cifrado en 0.01 Á. Los radios de
los elementos fueron tomados a partir de datos experimentales de un conjunto de
moléculas representativas.
Los valores de las constantes de enlace simple se asumen independientes del
tipo de enlace, así 1^(1)= 700 (kcal/mol)/ Á2 y 0^(1)= 70 kcal/mol y para los restantes
órdenes de enlace se calculan a partir de la expresión 9.42. Por otra parte, a se
calcula a partir de la constante de fuerza y la constante de disociación (ver ec. 9.42).
kij(n) = n k ij( l )
D i j ( n ) = n D ij( l )
ke = (82E/8R2)R=Re => a = (k e/ 2 D e) 1/2 . ( 9 .4 2 )

9.2.5 Campos de Fuerza Mecano-Cuánticos


Los campos de fuerza mecano-cuánticos se pueden definir como aquellos en
los cuales las constantes de fuerza son desarrolladas a partir de parámetros obtenidos
mediante cálculos, fundamentalmente, ab initio. Ello permite la parametrización de
grupos funcionales para los que se disponen pocos datos experimentales. El
desarrollo de un campo de fuerza mecano cuántico (Maple et al., 1988) puede,
dividirse en dos partes: en la primera parte se eligen una serie de estructuras en
equilibrio y se generan un número relativamente pequeño de configuraciones
distorsionadas. Se calcula la energía relativa cuántica y su primera y segunda
derivadas con respecto a las coordenadas cartesianas para cada configuración (AUa,
ga, Ha). Posteriormente se deben ajustar estas derivadas a una función energía
potencial empírica, cuyos valores análogos serán AU°a, g°a y H°a. La minimización de
la función desviación (ec. 9.43) con respecto a los parámetros del campo de fuerza
permitirá obtener el mejor ajuste de cada función energía a la superficie potencial ab
initio.

445
Índice
Capítulo 9

y2= cou 2 (AUa - AU° a) 2 + ü)g 2 (ga - g° a) 2 + 0)H2 (Ha - H° a) 2 (9.43)

Usando varias funciones analíticas, se puede determinar cual es la que mejor


se ajusta a la superficie de potencial ab initio y por tanto cuáles la forma más
adecuada de la función de energía.

9.2.5.1 QMFF (Quantum Mechanical Forcé Field)


El campo de fuerza QMFF (QMFF93 o QMCFF93) fue desarrollado en
1994 exclusivamente para alcanos (Maple et al., 1994), a partir de la metodología
descrita anteriormente. La energía, la primera y segunda derivadas de la energía con
respecto a las coordenadas cartesianas de las estructuras en equilibrio y
distorsionadas se determinaron mediante cálculos ab initio a nivel HF/6-31G*. La
función energía (ec. 9.44) muestra que algunos términos (tensión, torsión y los
términos cruzados tensión-flexión y flexión-flexión) se describen mediante la
mismas expresiones que en MM3. Pero también se aprecian algunas diferencias
significativas.

Etotal= ^ El + ^ Eo+ ^ Eü)+ EvdW+ Eelect + ^ E¿Q + ^ E11


enlaces ángulos diedros vdW . e le c t enlace/ángulo enlace/enlace

+ ^ Eee + ^ Ee<o6 + ^ Eeo + ^ E ^ E*


ángulo/ángulo ángulo/diedro/ángulo ángulo/diedro enlace/diedro flexión fuera del plano

(9.44)

La representación del término de flexión utiliza una función de cuarto orden.


El término interacciones no enlazantes está representado por un potencial de U 9-6,
con reglas de combinación diferentes para la obtención de ry* y 8 ¡j , más la
aproximación monopolar para los términos electrostáticos.
Las cargas atómicas son determinadas a partir de la aproximación de
incrementos de enlace, consistente en que la carga atómica parcial sobre un átomo es
igual al sumatorio de todas las contribuciones a la carga debidas a los átomos a él
enlazados. Estas contribuciones dependen de la electronegatividad de los átomos
enlazados.
Adicionalmente se incluyen algunos términos cruzados que no se han
considerado en el método MM3, como el término flexión-flexión-torsión, y otros
términos ya considerados pero a los que se les da un tratamiento diferente, como los
términos tensión-torsión y flexión-torsión.
446
Índice
Capítulo 9

9.25.2 CFF93 (Consistent Forcé Field 93)


Es ampliamente conocido que las constantes de fuerza obtenidas mediante
cálculos ab initio SCF son del orden 10-15% mayores que las experimentales. Por
este motivo se necesita escalar estas constantes de fuerza para ajustarse a los datos
experimentales y así obtener un campo de fuerza más preciso.
En este campo de fuerza desarrollado por Hwang en 1994 (Hwang et al.,
1994), se incluye una constante de escalamiento de la función analítica obtenida por
el método QMFF para conseguir un mejor ajuste a la superficie de energía potencial.
De esta manera, la expresión del campo de fuerza es la misma que la del QMFF pero
con unos factores de escala para los términos de tensión, flexión, torsión, flexiones
fuera del plano, interacciones no enlazantes y términos cruzados en conjunto.

9.2.6 MMFF94 (Merck Molecular Forcé Field 94)


Uno de los objetivos de este campo de fuerza, desarrollado por Halgren
(1996), es que pueda servir para el estudio de las interacciones receptor-ligando y
que abarque una amplia variedad de estructuras químicas y funcionalidades en los
ligandos. Se trata por tanto de un campo de fuerza desarrollado para ser utilizado en
simulaciones de dinámica molecular. Por este motivo, las geometrías moleculares y
las frecuencias vibracionales deben ser razonablemente adecuadas pero no se
requiere una precisión tan elevada como en los estudios espectroscópicos. No
obstante, las energías conformacionales y las energías intermoleculares son cruciales
y deben ser descritas con la máxima precisión posible, en consecuencia este campo
de fuerza se diferencia de los restantes básicamente en la formulación y
parametrización de las interacciones electrostáticas y de van der Waals.
Considerando estos requisitos, los datos de energías conformacionales y de
interacciones intermoleculares utilizados para parametrizar el campo de fuerza
deberían ser datos experimentales de elevada calidad, pero ya que no se dispone de
un conjunto amplio de estos valores, el MMFF94 ha sido desarrollado
principalmente a partir de datos ab initio básicamente a nivel HF/6-31G*, si bien los
parámetros torsionales han sido obtenidos con bases del tipo MP4SDQ/TZP.
Sin embargo, si se desea simular procesos que ocurren en fases condensadas
se necesita algo más que valores ab initio obtenidos en fase gaseosa. Así MMFF94,
como OPLS u otros campos de fuerza desarrollados para poder realizar simulaciones
en fases condensadas, emplean potenciales "effect pair", que reflejan, en promedio, el
aumento de la distribución de carga debido a la polarizabilidad molecular.

447
Índice
Capítulo 9

Otra innovación es el uso de una metodología de parametrización en la cual


los parámetros han sido derivados de una forma consistente a partir del conjunto de
valores computacionales, en lugar de utilizar la aproximación de grupos funcionales.
Además, también incluye una parametrización inicial para el ion hidroxilo, para el
protón, para los iones alcalinos, alcalinos térreos y halógenos, así como para un
conjunto de cationes de presencia común en proteínas (Zn++, Ca++, Cu++, Cu+, Fe++ y
Fe+++).
La expresión de energía del MMFF94 es:
E,o,al= ^
^
1
Ef + ^^ Ee + ^
~ E
co+^— EvdW+^— Eelect
kn o
enlaces ángulos /lijanrA
diedro vdW e le c t

+flexión fuera
£ delExplano +enlaceX/ ángulo
Eee (9'45)

Los términos de tensión y flexión utilizan una función de cuarto orden y una
expansión cúbica respectivamente. El término de torsión está descrito con las mismas
expresiones utilizadas en el campo de fuerza MM3 y de igual forma los parámetros
torsionales dependen de los cuatro átomos que forman el diedro.
Para describir la flexión fuera del plano en centros tricoordinados, MMFF94
utiliza una expresión armónica análoga a la ecuación 9.28.
Las interacciones tensión-flexión se describen mediante una expresión
similar a la del campo de fuerza MM3. La diferencia estriba en que el campo de
fuerza MM3 utiliza la misma constante de fuerza al considerar la influencia de
flexión sobre los dos enlaces (ec. 9.36) mientras que en el MMFF94 las dos
constantes pueden ser diferentes.
Las interacciones de van der Waals son descritas a partir de la forma "14-7-
amortiguada". Esta terminología deriva de la dependencia en las potencias 14 y 7
utilizadas para el término repulsivo y atractivo que se obtendría si las constantes de
amortiguación (r¡j*) fuesen eliminadas del denominador. La forma del potencial se
muestra en la siguiente expresión:
7

ü
J-'vdW
M MFF94 _

c
b ij
1.07 r j \ (
1.12r;a*7_ _ 2\ (9.46)
r8 + 0.07^ ;
r-y + 0 . 1 2 r-ij

Los valores de las distancias de enlace y el valor de la energía de potencial


en el mínimo de la curva se obtienen a partir de unas nuevas reglas de combinación,

448
Índice
Capítulo 9

que incluyen los parámetros de polarizabilidad atómica y un factor de escala que


normalmente no varía para elementos de un mismo periodo en la tabla periódica.
Finalmente, las interacciones electrostáticas se determinan a partir de la
forma coulombiana amortiguada (ec. 9.47), donde 5 es la constante electrostática de
amortiguación y vale 0.05 Á. Esta constante impide que la contribución electrostática
atractiva domine abrumadoramente sobre la interacción repulsiva mientras los
centros átomicos de carga opuesta se unen. La utilización de una constante
dieléctrica igual a uno permite que el campo de fuerza sea aplicado sin ningún tipo
de modificaciones en simulaciones de fases condensadas considerando
explícitamente al disolvente. Estas interacciones electrostáticas 1,4 están escaladas
por un factor de 0.75.

EelecíMMFF94 = 332.0716 qiqj / (D(rij+ 6 )n) (9.47)

La carga atómica parcial (q¡) se calcula a partir de la suma de la carga


atómica formal (q¡°) más las contribuciones derivadas de los incrementos de carga,
que describen la polaridad de los enlaces formados entre el átomo i y los restantes
átomos a él enlazados. Estos incrementos se determinan mediante ajustes al
momento dipolar HF/6-31G*. Estos valores ab initio suelen ser del orden del 10-20%
superiores a los valores observados experimentales. Sin embargo, no son reducidos
ya que de esta manera se tiene en cuenta de forma promediada el aumento en la
polaridad que ocurre en un medio de elevada constante dieléctrica como
consecuencia de la polarizabilidad molecular.

9.2.7 Conclusiones. Aplicaciones y Limitaciones de los Campos de Fuerza


Teniendo siempre presente las diferentes clasificaciones indicadas en
apartados anteriores y que permiten elegir el campo de fuerza más adecuado para
cada sistema y para cada problema en particular, por término general puede indicarse
que los métodos de Mecánica Molecular son utilizados preferentemente en la
determinación de la geometría molecular, cálculo de energías conformacionales,
cálculo de barreras torsionales, cálculo de geometrías y energías de interacción
intermolecular, determinación de frecuencias vibracionales, calores de formación y
otras magnitudes termodinámicas. Además de estas aplicaciones puntuales,
actualmente la mayoría de campos de fuerza son aplicados tanto a cálculos Monte
Cario como también a procesos de dinámica molecular (ver apartados 9.3 y 9.4).

449
Índice
Capítulo 9

Además recientemente se han implementado una gran variedad de técnicas que


permiten el estudio de la energía libre de sistemas biomoleculares.
De todas maneras, debemos insistir nuevamente en que los resultados
obtenidos dependen de la descripción del campo de fuerza, por tanto debe realizarse
un análisis exhaustivo sobre lo que se quiere obtener y lo que permiten obtener los
campos de fuerza y una vez sopesadas las diferencias, elegir el método adecuado.
Osawa y Lipkowitz (1995) han publicado una recopilación de los grupos funcionales
que han sido parametrizados para los campos de fuerza más importantes. Este es
también un aspecto a considerar en el momento de decidir que campo de fuerza
vamos a utilizar para realizar el estudio. Por otra parte, existen amplias
comparaciones entre diferentes campos de fuerza al ser aplicados sobre el mismo tipo
de sistemas (Anet and Anet, 1985; Gundertofte et al., 1991; Bays, 1992; Hwang et
al., 1994; Gundertofte et al. 1996; Petterson and Liljefors, 1996).
Con respecto a las limitaciones fundamentales de estos métodos podemos
destacar que la inmensa mayoría de campos de fuerza utilizan para la descripción de
las interacciones electrostáticas bien el tratamiento monopolar o el dipolar, y en los
dos casos las cargas atómicas parciales o los momentos dipolares se consideran fijos
y estáticos. De esta manera se eliminan tanto los multipolos de orden superior como
los efectos electrostáticos que surgen de la polarizabilidad molecular. Algunos
campos de fuerza, como el MMFF94 o el AMBER 4.1 usan diferentes
aproximaciones para considerar el efecto de polarización inducida. Otras
aproximaciones que permiten considerar esta polarización son las contribuciones de
Sprik and Klein (1988) y Straatsma and McCammon (1990a; 1990b). Los primeros
han descrito una aproximación para determinar polarizabilidades donde los
momentos dipolares inducidos son representados mediante ’mini-cargas’ fluctuantes
colocadas en el centro de una unidad molecular rígida, mientras que los segundos han
sugerido un esquema no iterativo que permite a los momentos inducidos
interaccionar con las cargas localizadas pero no entre sí. De todas maneras, este es
actualmente uno de los caballos de batalla en el desarrollo de los campos de fuerza y
muchos son los grupos de investigación dedicados a considerar la contribución de la
polarizabilidad en los campos de fuerza.
Otro aspecto a tener en cuenta es que las cargas atómicas tienen el mismo
valor independientemente de la conformación adoptada. De esta manera se ignoran
las transferencias de carga, efecto que puede jugar un papel muy importante en la
descripción de las interacciones por puente de hidrógeno.

450
Índice
Capítulo 9

Finalmente, la ecuación de la energía no es adecuada para la representación


de los cambios en la estructura electrónica y por tanto esta metodología no es válida
para el estudio de estados excitados o de sistemas en que se formen o rompan
enlaces. Para simular procesos de este tipo en sistemas grandes deben utilizarse
modelos más pequeños y tratarlos con métodos cuánticos o bien hacer uso de un
método híbrido QM/MM, los cuales serán analizados con detenimiento en el
apartado 9.4.

9.3 QSAR (QUANTITATIVE STRUCTURE-ACTIVITY


RELATIONSHIP)
El problema de predecir la actividad biológica de compuestos químicos y el
diseño de nuevos compuestos con una actividad determinada es uno de los más
importantes en la química moderna.
La principal forma de resolver este problema es determinar el mecanismo de
interacción de las moléculas activas con el bioreceptor, sin embargo la complejidad
es enorme. La aproximación empírica al problema consiste en comparar todos los
compuestos químicos activos con los inactivos que tengan estructuras similares y
determinar las similitudes y diferencias entre ellos. De esta forma se podrá
determinar las principales características de las moléculas responsables de la
actividad.
Este tipo de aproximaciones en las que se relaciona la actividad biológica
con algunas propiedades físico-químicas o la presencia o ausencia de ciertas
características estructurales es lo que se conoce como QSAR (Quantitative Structure-
Activity Relationship). Por tanto, el objetivo de un análisis QSAR es la predicción y
diseño de compuestos biológicamente activos.

93.1. Historia del Análisis QSAR


La historia de las relaciones cuantitativas estructura-actividad se remonta a
finales del siglo pasado, cuando Crum-Brown y Fraser, en 1865, postularon que
debería existir una correlación entre las ’actividades fisiológicas1 y las estructuras
químicas.
A mediados de 1930, Hammett definió una constante de reacción (p) para
describir la reactividad de sistemas aromáticos a partir de su constante cinética o
constante de equilibrio y un parámetro o para describir las propiedades electrónicas

451
Índice
Capítulo 9

de los sustituyentes del sistema aromático (se trata de una medida concisa de las
propiedades electrónicas de la molécula):

p a = log - log kRH (9.48)

La metodología QSAR, así como se entiende actualmente, se inició en 1964


cuando Hansch y Fujita (1964) publicaron un modelo (análisis de Hansch) que
correlaciona la actividad biológica con las propiedades físico-químicas:
log 1/C = a (log P) 2 + b logP +co + ... +k • (9.49)

En esta ecuación, C es la concentración molar de compuesto necesaria para


producir respuestas estándar en un tiempo determinado, P es el coeficiente de reparto
del compuesto entre n-octanol y agua, medida adecuada para representar el carácter
hidrofóbico, y o es la constante electrónica de Hammett.
Como parámetro hidrofóbico también puede utilizarse jt, definido como:
** = logPRx-logP*H (9.50)

En el mismo año, Free y Wilson (1964) formularon un modelo aditivo (ec.


9.51):
log 1/C =2'a¡ + n (9.51)

donde C es la dosis molar; a¡la contribucióndel sustituyente X¡ y \x la actividad


biológica del compuesto padre.

Aplicaciones y Limitaciones de los dos modelos


A pesar de que ambos modelos están relacionados, difieren en su
aplicabilidad.
El análisis de Free-Wilson es un método extremadamente simple,
únicamente se necesita conocer los valores de la actividad biológica y las estructuras
de los compuestos. Sin embargo, sólo puede aplicarse si hay al menos dos sitios
diferentes de modificación estructural. Además las predicciones de las actividades de
nuevos compuestos sólo pueden hacerse para nuevas combinaciones de sustituyentes
ya incluidos en el análisis. Una ventaja de esta metodología es que los valores de los
coeficientes de los sustituyentes individuales pueden ser utilizados como una primera
aproximación en el conocimiento de la relación estructura-actividad.

452
Índice
Capítulo 9

El análisis de Hansch es más flexible y por tanto más utilizado. En muchos


casos únicamente se necesita un pequeño número de parámetros físico-químicos para
correlacionar con las actividades biológicas. El modelo también permite obtener
información sobre el modo de acción y sobre los requisitos de las propiedades físico-
químicas para la actividad biológica.
Una extensión de estos métodos consiste en utilizar un modelo combinado
de ambos análisis. Así en la ecuación 9.52, los parámetros físico-químicos describen
las partes de la molécula con amplias variaciones estructurales, mientras que las
variables "indicator" engloban aquellas variaciones estructurales que no pueden
incluirse de otra forma:

log 1/C = a (log P)2 + b log P + ca + ... + 2 a¡ + k . (9.52)

93.2 Propiedades y Descriptores en QSAR


9.3.2.1 Actividad Biológica
El concepto que subyace en todos los análisis QSAR es la aditividad de las
contribuciones de los sustituyentes a la actividad biológica en escala logarítmica.
Como parámetros relacionados con la actividad biológica pueden usarse la afinidad
al sitio activo de la enzima, las constantes cinéticas, las constantes de inhibición o
valores IC50, parámetros farmacocinéticos.

9.3.2.2 Principales descriptores


■ Generales. En este apartado podemos incluir el punto de fusión, punto de
ebullición, presión de vapor, constantes de disociación, energía .de activación,
calor de reacción, potencial de reducción,...
■ Hidrofóbicos. Fundamentalmente, el coeficiente de reparto n-octanol/agua (P),
además también podemos incluir en este apartado el coeficiente cromatográfico
de la fase reversa, la solubilidad en agua. La importancia del coeficiente de
partición ha propiciado el desarrollo de software para su determinación (p.e.
CLogP, LogKow, ACDLogP).
■ Electrónicos. En este grupo se incluyen la constante de Hammett (o) y variantes
como la constante de Taft para sustituyentes polares (o*), así como las constantes
de campo (R) y de resonancia (F) que representan el componente inductivo y
resonante de la constante de Hammett. Además debemos añadir el potencial de

453
Índice
Capítulo 9

ionización, la constante dieléctrica, el momento dipolar y el enlace por puente de


hidrógeno.
■ Químico-Cuánticos. Parámetros derivados de cálculos cuánticos, como cargas
parciales, densidades electrónicas, reactividad del enlace jc, polarizabilidad
electrónica y energía de los orbitales HOMO y LUMO.
■ Esféricos. Las interacciones polares resultantes de las interacciones de van der
Waals son descritas adecuadamente mediante la refractividad molar (MR).
Parámetros puramente estéricos son: la constante de Taft de sustituyentes
estéricos (Es), el volumen molecular, la forma molecular, el área superficial
molecular y los radios de van der Waals. Más adecuados resultan los parámetros
de Verloop (L y B) que describen la longitud’ y ’amplitud' de los sustituyentes.
■ Estructurales. En este grupo incluimos los fragmentos de átomos y enlaces, las
subestructuras, el entorno de la subestructura, el número de átomos en un
elemento estructural determinado, el número de anillos (en compuestos
policíclicos). Además se han utilizado también índices de conectividad
molecular (%) como ejemplo de parámetros topológicos.

9 3 3 . Obtención de una Ecuación QSAR


El proceso de derivación de una ecuación QSAR engloba una serie de pasos.
Inicialmente se debe elegir un conjunto de estructuras de actividad biológica, definida
o bien se debe proceder a sintetizarlos para posteriormente conocer la actividad.
En una segunda etapa se procede a la elección de los parámetros
(propiedades y descriptores) que pueden formar parte de la ecuación. Los dos
criterios primordiales en esta elección son que los compuestos elegidos deben dar
una buena dispersión de valores en los parámetros, y además los descriptores no
tienen que estar correlacionados. Una forma de determinar el grado de correlación es
mediante el coeficiente de Pearson definido por la ecuación 9.53. Si dicho coeficiente
es 1 . 0 o - 1 . 0 la correlación es perfecta, mientras que si es igual a cero no existe
ningún tipo de correlación. La mayoría de programas QSAR incluyen la posibilidad
de determinar el grado de correlación entre los descriptores antes de proceder a la
derivación de la ecuación.
n
2)(; x - < x > ) ( y i- < y > )
r= /=! (9.53)

2 t e - < x > ) 2| f 2 o ’ - < y > f

454
Índice
Capítulo 9

El tercer paso es la obtención de la ecuación QSAR. El método más sencillo


consiste en determinar mediante una regresión lineal múltiple (MRL) (y =
+bx2+cx3+..) la mejor combinación de coeficientes en la ecuación QSAR. Sin
embargo, el uso de un elevado número de descriptores plantea dos problemas
fundamentales: la existencia de muchísimas combinaciones posibles, con el
incremento consiguiente del tiempo de cálculo, y además que los descriptores en
general no son ortogonales. Para solventar estos problemas se han desarrollado
nuevas metodologías como el "principal component analysis” (PCA) y "nonlinear
partial least-squares" (NIPALS) que transforman los descriptores no ortogonales en
factores principales ortogonales. Otras alternativas son la utilización de modelos no
lineales como las redes neuronales y los algoritmos genéticos.
Una vez obtenida la ecuación QSAR, se podrá utilizar para predecir la
actividad de otros compuestos pertenecientes a la misma familia que el conjunto de
referencia utilizado para generar la ecuación. Aquellos compuestos que muestren una
mayor actividad serán por tanto los candidatos iniciales para ser sintetizados y
chequeados antes de su difusión como fármacos.

93.4. Validación de los modelos QSAR


El mejor de los procesos de validación, aunque en muchas ocasiones
inviable, consiste en dividir el grupo de compuestos en dos. Uno a partir del cual se
deriva el modelo y el otro de prueba que sirve para predecir actividades biológicas.
En la mayoría de ocasiones la validación de un modelo QSAR se realiza a
partir de cuatro parámetros: n (número de puntos), s (desviación standard de la
regresión), r (coeficiente de correlación) y F (test de Fisher)
Otra alternativa es la "cross-validation". En este caso se derivan muchos
modelos en los cuales se excluye a uno o varios compuestos que son utilizados para
una predicción posterior. Posteriormente todos estos modelos son comparados
mediante los valores experimentales, el coeficiente de "cross-validation" (Q2) y la
desviación estándar de las predicciones (sPRESS) calculada a partir de la suma de las
desviaciones al cuadrado de los valores predichos (PRESS). Estos parámetros son
análogos al coeficiente de correlación y*a la desviación estándar.

455
Índice
Capítulo 9

9 3 .5 .3D-QSAR
Se trata de un área bastante novedosa del diseño molecular asistido por
ordenador (CAMD) caracterizada por la determinación de una relación
computacional explícita entre la actividad biológica y las propiedades moleculares
2D y 3D.
Entre las diferentes, metodologías RI 3D-QSAR en las cuales no se conoce la
geometría del receptor podemos destacar:
■ CoMFA (Comparative Molecular Field Analysis) (Cramer et al., 1988)
El punto de partida en un análisis CoMFA es un conjunto de conformaciones, una
para cada molécula, biológicamente activas. A continuación, se superponen las
conformaciones de acuerdo con el modelo de interacción propuesto y posteriormente
se calcula el campo molecular que rodea a cada molécula colocando grupos de
interacción ("probé’1) en diferentes zonas generando una red regular.
La actividad puede calcularse a partir de:
N P
Actividad = C + S 2 C ijSü (9-54)
ra j=i
C¡j es el coeficiente que corresponde al grupo ’’probe” j en la posición i de la red.
Esta relación se determina mediante una proceso de mínimos cuadrados parciales
(PLS) ya que normalmente habrá miles de puntos en la red y del orden de 30
compuestos. Los coeficientes generados muestran la aportación de cada punto de la
red sobre la actividad.
La aproximación CoMFA es sensible a diferentes factores: selección de los
compuestos activos, tipos de "probe”, el campo de fuerza utilizado para describir las
interacciones entre la "probe” y cada compuesto, el tamaño y espaciado de los puntos
de la red y la manera en que se realiza la regresión.

■ Molecular Shape Analysis (MSA) (Hopfinger, 1980)


La metodología MSA se inició a finales de los 70 cuando Hopfinger empezó a
incorporar información sobre cálculos energéticos conformacionales en QSAR.
Como medida global de la similitud de la forma molecular al construir el QSAR se
ha utilizado inicialmente el volumen estérico de superposición entre un par de
moléculas (COSV). En general, la similitud espacial es fácil de determinar en una
serie de compuestos de flexibilidad limitada. Sin embargo, es difícil de determinar
cuando las moléculas de la serie son flexibles. En estos casos deben considerarse la
flexibilidad y los términos energéticos internos de la molécula para definir el perfil

456
Índice
Capítulo 9

que forma la molécula. Además hay que tener presente el hecho de que al considerar
la forma molecular biológicamente relevante, los términos energéticos
intermoleculares ligando-receptor pueden estabilizar una conformación que no es la
más estable tanto en fase gaseosa como en solución. De esta forma, un análisis MSA
consta de los siguientes pasos: analizar las posibilidades conformacionales,
hipotetizar la conformación activa, seleccionar un compuesto de referencia, realizar
superposiciones moleculares, medir la forma molecular, determinar otras
características moleculares, construir un QSAR de prueba y utilizar el QSAR
optimizado para el diseño de ligandos.

■ Molecular Similarity Matrix


Richards y colaboradores (Good et al., 1993), desarrollaron un 3D-QSAR basado en
la obtención de una matriz a través de la comparación de las moléculas entre sí, en
contraste con la norma general de relacionar la actividad de algunos compuestos con
su similitud a una molécula padre. Esta aproximación, similar a CoMFA, asume que
las alineaciones y conformaciones utilizadas son correctas. Algunos índices
utilizados en la construcción de las matrices son: índice de Carbó (Carbó et al.,
1980), índice de forma de Meyer (Meyer and Richards, 1991), índice de Hodgkin
(Hodgkin and Richards, 1987), etc.

93.6 Aplicaciones QSAR


La mayoría de estudios QSAR en los últimos años constituyen un apartado
en el diseño de fármacos. A continuación se exponen algunos ejemplos significativos
que han contribuido para que la metodología QSAR sea aplicada con éxito en alguna
de las etapas del proceso de obtención de nuevos fármacos.

a) Inhibición Enzimàtica
Los datos in vitro de inhibición enzimàtica pueden correlacionarse
fácilmente con las propiedades físico-químicas ya que las interacciones en el sitio
activo no están influenciadas por el transporte y otros procesos, tales como la
absorción, distribución, metabolismo y/o eliminación. Además, la precisión y
reproducibilidad de los estudios in vitro es mucho mejor que la de estudios animales
ya que se ha eliminado la variabilidad biológica.

457
Índice
Capítulo 9

Figura 9.10 5-(X-bencil)-2,4-diamino


pirimidinas

Para un conjunto de 5-(X-bencil)-2,4-diaminopirimidinas (figura 9.10) se han


desarrollado ecuaciones QSAR para la inhibición de Escherichia coli (ec. 9.55) y de
Lactobacillus casei (ec. 9.56). Estas dos ecuaciones difieren en un aspecto
importante: en la ecuación 9.56 no hay influencia del sustituyen te en 5. Después de
que las estructuras tridimensionales de ambos enzimas fueron determinadas este
hecho se pudo explicar fácilmente. El sitio activo para ambos enzimas es muy similar
excepto que en el lugar que ocupa el sustituyen te en 5, hay una cadena flexible de
metionina en la E. coli, mientras que en la L. casei hay una cadena de leucina mucho
más rígida. Por tanto, el sitio activo del L. casei es mucho más estrecho y las
contribuciones positivas de la lipofilia o polarizabilidad de los sustituyentes son
compensadas por la prohibición estérica.

log 1 /Ki 0.75 (±0.26) ^ 3,4,5 -1.07 (±0.34) log


app = ((3 lO *3’4’5 + 1 ) + 1.36(±0.24) MR'3,5
+ 0.88 (±0.29) MR’4 + 6.20
log p = 0.12 Jtopt = 0.25
(n=43; r = 0.903; s=0.920) (9.55)

log 1/K¡ app = 0.31 (±0.11) Jt3>4 - 0.88 (±0.24) log ((3 ÍO*3’^ 1) + 0.95 (±0.21) MR'3,4
+ 5.32
log (3 = -1.33 Jtopt = 1.05
(n=42; r = 0.876; s=0.222) (9.56)

b) Desarrollo de fármacos
El ácido nalidíxico (figura 9.11a) es un compuesto usado en el tratamiento de
infecciones urinarias, pero cuya actividad es relativamente débil. La compañía
farmacéutica Kyorin intentó mejorar su potencia y su espectro de actividad.
458
Índice
Capítulo 9

Figura 9.11. a) Ácido nalidíxico; b) Compuesto padre sobre el que se desarrollo el


QSAR; c) Norfloxacina

Manteniendo fijos tres sustituyentes de la estructura padre (figura 9.11b) se


fue variando el cuarto y se determinó el mejor ajuste del MIC frente a Escherichia
coli con respecto a los descriptores jt, a m, o p, F, R, Es, MR y parámetros de Verloop.

Variación en 1
log (1/MIC) = -0.49 (Lj) 2 + 4.10 Lj - 2.00
n = 8 ; s =0.13; r2 = 0.91 ; F = 25.78 Lt (opt) = 4.2 Á

Variación en 6
log (1/MIC) = -3.32 (Es(6 ) ) 2 - 4.37 Es(6 ) + 3.92
n = 8 ; s =0.11; r2 = 0.98 ; F= 112.29 Es (opt) (6 ) = -0.66
í

Variación en 7
log (1/MIC). = -0.24 (Jijf - 0.68 tc7 - 0.711(7N-CO) + 5.99
n = 22; s = 0.24; r2 = 0.89 ; F = 47.97 jc7 (opt) = -1.38 Á

Variación en 8
log (1/MIC) = -1.00 (B4(8 ))2 + 3.73 B4(8 ) + 1.3
n = 7; s =0.22; r2 = 0.96 ; F = 44.05 B4 (opt) (8 ) = 1.83 Á

459
Índice
Capítulo 9

Para determinar o no la validez de las regresiones anteriores se realizó un


análisis con todos los sustituyentes:
log (1/MIC) = -0.36 (L,) 2 + 3.04 L, - 2.50 (Es(6)) 2 + 0.99 1(7) - 0.73 I (7N-CO) - 1.03
B4 (8 )2 + 3.72 B4 (8 ) - 0 . 2 1 Jt(6,7,8) J -0.49 ^ Jt(6,7,8) -0 .6 8 ^ F(6,7,8) - 4.57

n = 71; s = 0.27; r2 = 0.93 ; F = 64.07 (9.57)


L, (opt) = 4.19 Á; Es(opt) (6 ) = - 0.67; B4 (opt) (8 ) = 1.82; ^ Jt(6,7,8) (opt) =-1.18

Esta ecuación confirma la aditividad de los efectos de los sustituyentes


obtenidos en las ecuaciones individuales, aunque modifica la importancia del
parámetro jt7 para incluir contribuciones de las posiciones 6 y 8 . El otro término
nuevo, 2 F(6?7,8) , indica que algún efecto dador de electrones sobre la función 4-
oxo proveniente del anillo aromático incrementa la actividad global.
El resultado final de este análisis fue la comercialización del Noroxin, cuyo
principio activo es la norfloxacilina (figura 9.11c) con una actividad entre 16-500
veces superior a la del ácido nalidíxico.

93.7 Futuro de la Metodología QSAR


Las investigaciones sobre esta técnica se centran en la actualidad en tres
puntos fundamentales: el desarrollo de nuevos descriptores, la búsqueda de métodos
capaces de calcular la mejor correlación y el denominado problema inverso, o sea, el
desarrollo de bases de datos que permitan obtener el compuesto que más se ajusta a
la ecuación fundamental obtenida en el análisis QSAR.

460
Índice
Capítulo 9

9.4 MODELOS DE SOLVATACIÓN APLICADOS EN MECÁNICA


CUÁNTICA

La continua mejora en los métodos de la Mecánica Cuántica ha permitido


que en la actualidad sea posible una descripción muy detallada de las propiedades
fisicoquímicas de moléculas o conjuntos moleculares aislados lo cual puede ser
identificado, bajo ciertas condiciones, con el comportamiento en fase gaseosa. No
obstante, la mayor parte de las reacciones químicas y las determinaciones
estructurales moleculares se dan en medios condensados, mayoritariamente en
estado líquido y en estado sólido, que además cobra cada vez una mayor relevancia
por su potencialidad en aplicaciones tecnológicas. El capítulo cuarto ya ha tratado
aspectos básicos del estudio en estado sólido. En el presente capítulo se van a
examinar métodos para abordar el estudio teórico de los efectos del disolvente sobre
las propiedades moleculares y reactivas de sistemas químicos.

Un líquido es una fase condensada en la que las interacciones


intermoleculares compiten con el movimiento molecular que tiende a aumentar el
desorden. Es pues evidente que la energía de interacción entre moléculas es clave
para determinar las propiedades del líquido y los efectos del disolvente sobre un
soluto o un proceso reactivo dado. Intrínseco a la naturaleza del sistema está que el
número de partículas para dar una reproducción realista de una disolución debe ser
muy grande. Esto limita en principio la aplicación directa de metodologías cuánticas,
pero además implica la necesidad de introducir promedios estadísticos para dar
cuenta del enorme número de posibles configuraciones del sistema. De este modo
puede hablarse que con el uso de métodos mecano-cüánticos podremos describir en
general de una forma muy detallada al soluto, pero de forma muy aproximada
aquello que es disolvente y que constituye el medio condensado. En este sentido
puede hablarse de que los métodos mecano-cuánticos que consideran la solvatación
son técnicas donde “un soluto real está inmerso en un disolvente modelo”. Por el
contrario, las técnicas estadísticas son capaces de describir el medio condensado,
aunque en general a costa de una más aproximada descripción del soluto, por lo que
en este caso hablaremos más de “un soluto modelo en un disolvente real” (Rivail et
al., 1991).

461
Índice
Capítulo 9

Se pueden diseñar dos grandes vías para abordar tratamientos que describan
los efectos del disolvente (Tapia, 1982). Una es la aproximación física, en la cual el
sistema completo se define a partir de todos los núcleos y electrones que lo
constituyen, y se resuelve la correspondiente ecuación de Schrödinger para obtener
toda la información del sistema, añadiéndose posteriormente la dependencia de la
temperatura por métodos mecano-estadísticos si es necesario. Aunque el
procedimiento está claramente definido, su puesta en práctica es inviable sin la
introducción de fuertes restricciones en el número de partículas que compongan el
sistema. La otra aproximación toma una perspectiva química, en el sentido que
reconoce la existencia de moléculas: N moléculas de disolvente (cada una con nd
electrones y má núcleos) y una o varias moléculas de soluto (cada una con ns
electrones y ras núcleos). El hamiltoniano del sistema se aproxima suponiendo que

hay una separación clásica entre las distintas moléculas ( H s y H d , representan los
hamiltonianos de las moléculas de soluto y disolvente respectivamente) que se

corrige con un término que da cuenta de la interacción intermolecular ( H s_d ). Así


el hamiltoniano global de la disolución se define por la suma de los tres operadores
anteriores,

H = H S + H d+ H s_d (9.58)
La ecuación (9.58) puede describir un amplio grupo de sistemas. Para derivar una
ecuación efectiva de Schrödinger hay que recurrir a hipótesis cualitativas que definan
razonablemente el problema químico bajo estudio. Así uno de los presupuestos más
empleados es trabajar con un único soluto que interacciona con un conjunto de
moléculas de disolvente, así que modelamos una disolución diluida. Cuando el soluto
perturba la distribución espacial y la estructura electrónica del disolvente, y
recíprocamente el disolvente perturba al soluto se produce una compleja
reorganización global que queda reflejada a nivel energético en las distintas energías
de solvatación. En ocasiones se encuentra que un volumen pequeño alrededor del
soluto es el que experimenta una importante reorganización con respecto a lo que es
la estructura del disolvente puro, esta región se denomina cibotaxis, y podría
asimilarse a la primera o primeras (según el grado de perturbación) capas de
solvatación (Tapia, 1982). En suma, el subsistema de interés puede tratarse
suponiéndolo inmerso en una región cibotáctica que a su vez está incluida en un

462
Índice
Capítulo 9

disolvente ligeramente perturbado (bulk), y cuyo comportamiento puede describirse a


partir de las propiedades correspondientes al líquido puro.

Con esta partición, el potencial efectivo creado por la densidad de carga molecular en
el medio puede descomponerse en dos términos. En el primero se incluyen las
moléculas de disolvente en la cibotaxis y en el segundo se incluyen las moléculas de
disolvente restantes o del bulk. Así, la ecuación de Schrödinger efectiva para obtener
a c ib o ta x IS A DUlK A

< n > A v .¿ >+ w .* i w (9 .5 9 )


{ H- + l
la función de onda del soluto en disolución puede escribirse,
donde Ws es la función de onda del soluto, %pá y i¡Jd< las funciones de onda de las
moléculas del disolvente en la cibotaxis y en el bulk, respectivamente, y Vsd y Vsd- son
los potenciales de interacción entre el soluto y las moléculas de disolvente en la
cibotaxis y el bulk. La resolución de esta ecuación de Schrödinger efectiva requiere
la introducción de aproximaciones que disminuyan la talla del sistema. Las formas de
abordar resoluciones operativas de (9.59) pueden agruparse en tres tipos de modelos:

-Modelos Discretos, que describen al disolvente a escala molecular y que se


restringen a la parte de la solvatación que involucra la región de la cibotaxis. En otras
palabras resuelven la ecuación (9.59) con un hamiltoniano que contiene los dos
primeros términos.
-Modelos Continuos, que describen al disolvente como un continuo dieléctrico
polarizable, de forma que no se reconoce una estructura microscópica de él, sino una
respuesta estadística promedia del medio a través de la polarización eléctrica. Visto
de otra forma, estos modelos resuelven la ecuación (9.59) con un hamiltoniano que
contiene el primero y el tercer término.
-Modelos Mixtos Discreto-Continuos (Semicontinuos), en estos modelos se
describen de forma discreta moléculas de disolvente en la cibotaxis y el resto de
moléculas de disolvente se sustituye por un dieléctrico. Es decir, esta aproximación
intenta resolver la ecuación (9.59) con los tres términos del hamiltoniano.

Índice
Capítulo 9

9.4.1 M o d e l o s Discretos

Para una serie de sistemas, los efectos de la solvatación están determinados,


esencialmente, por interacciones de corto alcance tales como enlaces de hidrógeno,
interacciones electrónicas dador-aceptor (transferencia de carga), fuerzas de
intercambio, etc. Esto conlleva una descripción detallada de la región cibotáctica o al
menos de parte de ella, ya que pueden encontrarse situaciones muy distintas; desde
aquéllas en las que una sola molécula del disolvente determina los efectos del medio,
hasta otras en las cuales varias capas de disolvente son las responsables de los efectos
observados. (Reichardt, 1990) El objetivo último de un estudio de solvatación sería
disponer de la capacidad para incluir todas las moléculas de disolvente, o al menos
un elevado número de ellas, junto con el soluto o sistema químico de interés en un
único cálculo mecano-cuántico. El nivel de cálculo debería ser tal que permitiese dar
una respuesta correcta al problema químico-cuántico planteado.
La aproximación en la cual todas las moléculas de disolvente se incluyen
explícitamente se denominó “Aproximación de Supermolécula” (Pullman, 1981).
Esta aproximación se ha utilizado para definir tendencias que generan
configuraciones y entornos del disolvente sobre solutos característicos. En un primer
estadio, este método recomienda el análisis con una única molécula de disolvente de
la región próxima al soluto. Mediante este estudio no sólo se localiza la orientación
de equilibrio junto con la energía de interacción intermolecular, sino que también se
obtiene información sobre las características de la interacción en función de las
orientaciones relativas, lo cual puede emplearse para construir potenciales
intermoleculares analíticos para ser utilizados en técnicas de Mecánica Molecular o
de Mecánica Estadística. Si esta información es extraída a partir de una única
molécula de soluto y una de disolvente se obtendrá un potencial de interacción de
par, con lo que implícitamente su empleo se basará en la validez de la aditividad por
pares de la interacción total del sistema. Por el contrario , si se considera un mayor
número de moléculas para analizar la interacción intermolecular, entonces es posible
obtener información sobre las contribuciones a muchos-cuerpos y en consecuencia
definir potenciales de interacción que incluyan términos de interacción de orden
superior al de pares (Stone, 1996).
Pullman (Pullman, 1981) distingue tres diferentes tipos de labilidad (Figura
9.12): 1) Labilidad in situ, que corresponde a la facilidad con que la molécula puede
rotar alrededor de sus ejes locales en la posición de mínimo; 2) Labilidad ad situm,
que describe la facilidad con la cual una molécula puede moverse en las vecindades

464
Índice
Capítulo 9

del mínimo; 3) Labilidad extra situm, caracteriza,


las interacciones del disolvente con el soluto en
regiones alejadas del mínimo.
Estudios siguiendo esta técnica permiten
definir tanto los lugares preferentes para la
solvatación de un determinado sistema, así como
la características energéticas y estructurales de
las regiones donde las interacciones son menos
favorables o incluso repulsivas, pero en donde
por definición de medio condensado habrán de
distribuirse moléculas de disolvente.
El segundo paso en la aplicación del modelo de supermolécula involucra la
construcción de una primera capa de solvatación que tomará como punto de partida
la investigación realizada con una sola molécula. Esta etapa permite la inclusión de
efectos a varios cuerpos, del tipo disolvente-soluto-disolvente, y superiores, que
refinarán la descripción derivada del análisis de las especies monosolvatadas. Con la
optimización de la geometría de la supermolécula, se puede conseguir la
determinación de la función de onda para estructuras significativas que permitan el
cálculo de las propiedades fisicoquímicas de interés. Esta optimización, si es posible,
se debe realizar al mismo nivel de cálculo mecano-cuántico utilizado para calcular
las propiedades, aunque en muchos casos habrá de hacerse por medio de métodos
menos costosos debido al número de grados de libertad del sistema y a las pequeñas
constantes de fuerzas asociadas a los grados de libertad intermoleculares.

9.4.2 Modelos Continuos


En estos modelos el disolvente se considera como un medio
continuo dieléctrico y polarizable dentro del cual se incluye el soluto en una cavidad
preparada ad hoc (Figura 9.13). Generalmente, el
continuo se caracteriza por la constante dieléctrica, e,
del disolvente al que representa. La distribución de
carga del soluto es la fuente de la polarización del
dieléctrico, a partir de lo cual se produce una
interacción de tipo electrostático entre la distribución
de carga del soluto y el dieléctrico polarizado.
Mediante el uso de la electrodinámica de fase

465
Índice
Capítulo 9

condensada puede demostrarse que la polarización eléctrica del medio contiene de


forma promediada las configuraciones de todas las moléculas de disolvente que
constituyen tanto la cibotaxis como el bulk. De esta forma, en la ecuación (9.59) los
sumatorios sobre las moléculas de disolvente se reemplazan por propiedades
macroscópicas que reflejan el comportamiento dieléctrico del material y que por
tanto implícitamente llevan incluido un promedio estadístico(Bottcher, 1973).
Dentro de estos modelos para evaluar la variación de energía libre1
asociada al proceso de solvatación se puede diseñar un proceso que, partiendo de
una molécula de soluto (o conjunto molecular) aislado y un continuo dieléctrico,
conste de las siguientes etapas:
/)Se crea una cavidad dentro del dieléctrico que permita insertar al soluto. La
variación de energía libre asociada a este paso se denomina energía de
cavitación, AAcav. Este término depende de la forma del soluto y del disolvente.
Es una contribución siempre positiva. Una de las fórmulas más utilizadas para
su estimación se basa en la teoría de la partícula escalada desarrollada por
Pierotti. Otras expresiones alternativas se basan en el empleo de la tensión
superficial del líquido y, de forma que la creación de la cavidad se asocie al
trabajo de generar una superficie en el líquido, Scav, igual al de la cavidad
(AAcav= y Scav), o expresiones empíricamente modificadas para corregir el
carácter no macroscópico del problema (Rivail et al., 1996).
ii)El soluto se coloca dentro de la cavidad en una etapa que involucra un cambio de
energía libre que puede descomponerse en dos contribuciones,
ii.l) La variación de energía libre debido a la interacciones soluto-disolvente de
tipo dispersivo, AAd¡sp. Esta contribución que es siempre negativa surge por el
acoplamiento entre las polarizaciones instantáneas de las moléculas que
interaccionan. El origen de estas fuerzas no puede comprenderse sin recurrir a
aspectos mecano cuánticos. Diferentes expresiones basadas en modelos
empíricos, así como también en modelos simplificados de teoría de
fluctuaciones se han propuesto para dar cuenta de la interacción dispersiva entre
el soluto y el continuo dieléctrico (Rivail et al, 1996, Tomasi et al., 1994)

1 El statu quo de la energía es el de una energía libre de Helmholtz (AA) ya que el proceso
está diseñado de forma que se realiza a volumen y temperatura constante. No obstante, si es
preciso puede obtenerse la variación de energía libre de Gibbs utilizando relaciones
termodinámicas [ver por ejemplo Tomasi y col. J. Am.Chem.Soc., 1984,106, 1945].
466
Índice
Capítulo 9

ii.2) La variación de energía libre debida al proceso de carga del soluto dentro de la
cavidad en la presencia de un continuo dieléctrico polarizable. Esta se acostumbra
a denominar .contribución electrostática, AAelec. El campo eléctrico creado por la
distribución de carga del soluto polariza al continuo que en consecuencia crea un
potencial electrostático dentro de la cavidad que se denomina Potencial de
Reacción2 (y al campo eléctrico asociado Campo de Reacción). La interacción
entre la distribución de carga del soluto y este potencial de reacción es el origen de
esta contribución,
De este modb, la variación de energía libre asociada al proceso de
solvatación dentro del modelo continuo puede expresarse por

AAs0l= AAeIec+ AAjjsp + AAcav (9.60)


Los efectos de disolvente más importantes asociados a comportamientos no
específicos tienen como principal componente la contribución electrostática, es por
eso que desde comienzos del siglo XX, utilizando modelos clásicos para caracterizar
a los solutos, se desarrollaran distintos tratamientos para calcular la contribución
electrostática.

9.4.2.1 Aproximación de Expansión Multipolar

Una molécula al estar constituida por partículas cargadas crea en su


entorno un potencial electrostático. En un punto dado M definido por el vector de
posición R , este potencial será la superposición de los potenciales creados por el
conjunto de núcleos y electrones de la molécula, lo que en unidades atómicas
puede expresarse por

v( R) = y
núcleos r - ra electrones R-r.

Una forma de expresar esta distribución de cargas es mediante un desarrollo en serie


de Taylor del potencial respecto a un punto elegido como origen de las coordenadas

2 Es conveniente señalar que el término “Reacción” en este contexto hace referencia a la


“respuesta” del diélectrico a la distribución de carga dentro de la cavidad. No tiene ninguna
relación con el significado del término en Química que se asocia a procesos químicos.
467
Índice
Capítulo 9

moleculares, y que podría ser, por ejemplo el baricentro de cargas. Esto da lugar a la
expansión multipolar que permite representar la distribución de carga molecular, que
tiene naturaleza multicéntrica, en una serie de multipolos, M™ (carga o monopolo
£=0, dipolo £=1, cuadrupolo £=2 , octupolo £ -3, etc.) colocados en el origen del
sistema. El momento multipolar de orden £ tiene 2£+l componentes que se pueden
definir a partir de los armónicos esféricos (M™ = r í Y¡n ). Cuando la distribución de
carga está muy expandida, el desarrollo multipolar puede tener problemas de
convergencia y también se han propuesto expansiones multicéntricas multipolares,
en las cuales se habla de Multipolos Distribuidos entre distintos centros (Stone,
1996).
La polarización eléctrica de un fluido continuo, cuando se supone una
respuesta lineal, está caracterizada por la constante dieléctrica £. En el sistema
internacional se utiliza la constante dieléctrica relativa, sr (er = e/s0) con respecto a la
del vacío £0. La polarización del medio, P , como consecuencia del establecimiento
de un campo eléctrico estático y uniforme E puede expresarse por

P = {e - e 0) É = (9.62)

Esta polarización del medio dieléctrico crea a su vez un campo eléctrico en el


interior de la cavidad que ya hemos designado como Campo de Reacción. Siguiendo
el caso más simple del modelo de Onsager, imaginemos que dentro de una cavidad
esférica de radio a tenemos una molécula cuya distribución de carga puede
caracterizarse por un momento dipolar M x. El campo del dipolo en tal cavidad
polariza al medio que lo circunda, y como resultante de la polarización no
homogénea del entorno se origina un campo de reaccción en la cavidad debido al
dieléctrico polarizado que será proporcional al dipolo molecular, R = f M x .E l
factor / se denomina “factor de campo de reacción” y depende de la forma de la
cavidad y de la constante dieléctrica.

Índice
Capítulo 9

Cuando se considera una distribución de carga molecular caracterizada por un


conjunto de momentos multipolares, - k } las componentes del campo de reacción
generado por la polarización del dieléctrico vienen expresadas por

r ? = 2V Jrrf . f F W ( 9 -64)

De manera general, los factores de campos de reacción pueden determinarse de


forma analítica cuando se trabaja con cavidades de formas regulares como esferas,
esferoides o elipsoides y con una expansión multipolar monocéntrica. Así, el factor
de campo de reacción correspondiente al momento multipolar de orden i en una
cavidad esférica de radio r se define por la expresión escalar

1 (^+l)(g-l)
a 2M { l + \ ) e + l
Suponiendo que la densidad de carga debida al soluto es despreciable fuera
de la cavidad, la variación de energía libre debida al proceso de creación de la
distribución de cargas en el dieléctrico respecto de vacío viene dada por
electrostática clásica

A A ^. = 1
2 cavity <9-66)

donde Vd es el potencial creado por el continuo dieléctrico polarizado en la cavidad y


ps es la densidad de carga molecular del soluto. Este resultado indica que M elec es
igual a la mitad de la energía de interacción de la molécula con el continuo
polarizado. Esto significa que la energía libre necesaria para polarizar al dieléctrico
es justamente la mitad de la energía de interacción. Cuando se utiliza el desarrollo
multipolar y el campo de reacción, la contribución electrostática a la variación de

( 9 '6 7 )

energía libre de solvatación puede expresarse por :


De forma práctica el desarrollo multipolar hay que truncarlo a un valor de l
relativamente pequeño para que computacionalmente sea posible el cálculo, y ello se
consigue cuando el desarrollo converge rápidamente. Típicamente, si las
469

Índice
Capítulo 9

contribuciones más allá de 1-1 todavía son importantes indica que el desarrollo
multipolar puede presentar problemas de convergencia.
La introducción en el hamiltoniano del sistema del término de interacción
soluto-continuo dieléctrico nos conduce a la siguiente forma para los elementos ¿uv
de la matriz de Hartree-Fock correspondiente a la resolución de la función de onda
del soluto inmerso en la cavidad

'v - k +1 t f " {'“ K k) ( 9 -68)


donde F °^ es el elemento matricial de la molécula libre. Estas ecuaciones Hartree-
Fock-Roothaan se resuelven iterativamente y la obtención de la autocoherencia por
razón de encontrar un campo de reacción coherente con la distribución de carga del
soluto no añade una complejidad especial al cálculo SCF. Esta solución variacional
del problema que incluye la interacción de la distribución de carga del sistema
molecular con el Campo de Reacción del continuo se conoce como cálculo SCRF
(Seif Consistent Reaction Field). Este método fue propuesto por el grupo de Rivail en
Nancy (Rivail et al., 1991, 1996). En este punto conviene señalar que la función de
onda del soluto se relajará como consecuencia del nuevo término en el hamiltoniano
y por tanto, las propiedades moleculares que se calculen ä partir de dichas funciones

soluto aislado H ° W 0=E^CF%


A A

soluto en disolución (H°+ H s-d )W =ESCRF W


corresponden, dentro del modelo empleado, a los valores en disolución.

La primera magnitud a analizar es la variación de energía libre debida a las


interacciones electrostáticas A >a *a cua* se añadido un superíndice “Ir”
(“long range”) para indicar que incluye más componentes que el meramente
electrostático de origen clásico, como podría inicialmente deducirse de la aplicación
de la ecuación (9.66). Esta magnitud es la diferencia entre la energía obtenida al
resolver la ecuación de Schrödinger incluyendo el término de interacción con el
continuo (proceso SCRF), ESCRF, y la energía derivada del cálculo del soluto aislado,
E qCF . debida a la interacción electrostática,

A 4 ;ec= £ SCRF- £ f F = M eIec + (M pol + M ind) (9.69)

470

Índice
Capítulo 9

De hecho, esta energía puede descomponerse formalmente en dos partes: i) la energía


intrínseca del soluto, que será necesariamente mayor (menos negativa) que la energía
molecular cuando se realiza el cálculo de la molécula aislada y cuya diferencia será
la energía necesaria para polarizar el soluto, AApol; ii) la contribución a la energía de
solvatación que contiene la componente electrostática, AAelec (que puede calcularse
utilizando la distribución de carga de la molécula aislada dentro de la cavidad e
interaccionando con el continuo) y la de inducción, AAind, es .decir, aquélla que
proviene de la polarización inducida en el soluto por el campo de reacción (la
función de onda del soluto es ahora W en lugar de WG) más la repolarización del
propio campo de reacción del disolvente como consecuencia de ello. Al ser el
método variacional y AAind y AApoI términos de segundo orden, no pueden calcularse
separadamente, de ahí que en la ec. (9.69) se escriban dentro de un paréntesis común.
AAgiec y A/ági^ son calculables por lo que lo puede obtenerse es el valor de la suma
indicada dentro del paréntesis.

9.4.2.2 Aproximación de Cargas Superficiales Aparentes

La teoría electrostática clásica establece que el


potencial de reacción de un dieléctrico, Vd, puede describirse
en cualquier punto del espacio en términos de una distribución
de carga aparente o extendida sobre una superficie (ASC,
“Apparent Surface Charge”) (Tomasi et al., 1994). Esta
distribución de carga se representa mediante un número
discreto de cargas puntuales, qh que se colocan en el centro de Figura 9.14
cada uno de los elementos de superficies, A5¡, en que se ha dividido la superficie total
2 (Figura 9.14).
q ^o is^A S ; (9.70)

En un punto P sobre la superficie el valor de la densidad superficial de carga se

o ( P ) =^ — - V V ( P ) ñ (9.71)
4jter
expresa

471

Índice
Capítulo 9

siendo ñ el vector normal a la superficie en el punto P. El potencial electrostático en


ese punto será la suma del potencial debido a la distribución de carga del soluto, que
estará toda dentro de la cavidad, VS(P) , y del potencial Vd(P) debido a todas las
demás cargas superficiales a(M)

V( P) = Vs (P) + Vd(P) (9 -7 2 )
para calcular el potencial de reacción en P es preciso integrar sobre toda la superficie

(9 .7 3 )

de la cavidad donde se definen las cargas superficiales

A partir de estas definiciones es claro que la obtención de las cargas superficiales ha


de hacerse de forma iterativa. Sin embargo, cuando la superficie se divide en
determinados conjuntos finitos de elementos de superficie es posible establecer un
sistema de ecuaciones lineales para obtener las cargas q¡ mediante un proceso de
inversión de matriz (Tomasi et al., 1994).
La obtención de la energía libre de solvatación solo requiere sustituir en la
ecuación (9.66) en un contexto clásico, y la solución mecano-cuántica solo necesita
la inclusión del término de interacción dentro del hamiltoniano. Este método ha sido
desarrollado por el grupo de Tomasi en Pisa y se conoce como “Polarized
Continuum Model” (PCM). En la actualidad está implementado en Gaussian-98.
La definición del problema sobre una superficie de cavidad que puede
descomponerse en pequeños elementos de superficie facilita el uso de formas de
cavidad que se adapten bien a la forma molecular. Además la resolución del
problema electrostático no está sujeta a ninguna condición de convergencia, como en
el caso del desarrollo multipolar. Como contrapartida, la formulación analítica del
método SCRF permite una resolución más simple del proceso autoconsistente y
mayor facilidad para el cálculo de las derivadas de la energía al disponerse de sus
formas analíticas que aceleran la optimización de la geometría molecular y de la
cavidad, así como el cálculo de las derivadas segundas analíticas. Durante los últimos
años se han introducido diferentes mejoras de ambos métodos, tanto en aspectos de
carácter matemático-computacional, como extensiones al cálculo de funciones que
incluyan correlación electrónica, utilizando tanto métodos post-Hartree-Fock como

472

Índice
Capítulo 9

Teoría del Funcional de la Densidad; así como respuestas no lineales del disolvente
(Rivail et al., 1996, Tomasi et al., 1994, Tapia et al., 1996, Aguilar et al., 1995)

9.4.2.3 Definición de la Cavidad

Un aspecto clave del modelo continuo es la definición adoptada para la


cavidad, tanto en lo que respecta a su forma como a su volumen. Es importante
señalar que la cavidad dentro del modelo continuo se debe definir como el volumen
del medio condensado que pertenece “electrostáticamente” al soluto y no al
disolvente. Ello proviene de los requerimientos exigidos para resolver las ecuaciones
de Poisson y Laplace dentro del modelo que obligan a que toda la distribución de
carga del soluto esté dentro de la cavidad (Botttcher, 1973, Tomasi et al., 1994) Esta
restricción de carácter macroscópico conduce a una cierta contradicción con la visión
cuántica del problema donde no existe la discontinuidad impuesta por la superficie de
la cavidad. En este sentido, la cavidad no necesariamente hay que identificarla con
las propiedades morfológicas moleculares. Más aún, en ocasiones magnitudes
termodinámicas próximas como puede ser el volumen molar parcial presenta valores
negativos para iones en disolución por lo que es evidente que no hay una fácil
relación macroscópica- microscópica (Millero, 1972).

En principio una cavidad ideal debería


reproducir la forma del soluto e incluir su
distribución de carga completa, así como excluir
los espacios que puede ocupar el disolvente. Si
la cavidad es demasiado grande los efectos de la
solvatación están amortiguados; pero si es
demasiado pequeña pueden producirse serios
errores en la evaluación de la energía de
Figura 9.15 interacción como consecuencia de la proximidad
de parte de la densidad de carga del soluto a los límites de la cavidad. Las formas
más utilizadas son las de figuras regulares, (esferas, elipsoides y cilindros), y las de
formas moleculares (superposición de esferas de van der Waals o correcciones de
ésta para incluir regiones no accesibles por el disolvente, superficie isodensidad o
isopotencial) (Silla et al., 1991). La Figura 9.15 muestra algunas de estas diferentes

473

Índice
Capítulo 9

formas que puede adoptar la cavidad según el modelo elegido (esfera, elipsoide,
vdw). El volumen de la cavidad es un segundo aspecto de la definición de la cavidad
que tampoco tiene una solución única. Una alternativa es asociar éste al volumen
molar del soluto, o en el caso de solutos neutros a su volumen molar parcial cuando
se dispone de datos experimentales. En caso de no disponer de esta información se
puede interpolar en correlaciones entre volúmenes experimentales y volúmenes de
van der Waals de compuestos relacionados conocidos. Otra alternativa, establecida
por el método PCM, es definir un volumen que corresponda a la cavidad formada por
la superposición de esferas centradas sobre los átomos que constituyen la molécula
donde el radio de cada una de estas esferas se multiplica por un factor 1.2 (Tomasi et
al., 1994). En el caso de sistemas cargados la definición es aún menos clara ya que
según se trate de cationes o aniones la extensión de la distribución de carga del soluto
respecto a los núcleos es distinta, y generalmente se recurre a correcciones
específicas para cada caso, con la regla general de que en el caso de aniones el
volumen de la cavidad debe ser mayor que el de su correspondiente catión, ya que
una excesiva extensión de la función de onda electrónica puede conducir a problemas
con la cantidad de carga del soluto fuera de la cavidad.

9.4.2.4 Ecuaciones de Born Generalizadas

En ocasiones estos modelos de continuo son utilizados para el cálculo de


sistemas moleculares de gran tamaño que son objeto de estudio por medio de
técnicas de mecánica clásica y que hacen uso de determinados modelos de campos de
fuerzas. En estos casos el sistema se representa por un conjunto de esferas con radios
a¡ y cargas q¡ , que en su forma más sencilla se hacen coincidir con los distintos
centros atómicos del sistema molecular, aunque en ocasiones éstos pueden ser
sustituidos por grupos de átomos o puntos significativos de enlace o pares solitarios.
La energía libre de solvatación se obtiene entonces mediante la expresión de Born

er } U f ith rt 2^ s,)Ha,
generalizada, ecuación (9.74) que calcula la diferencia de energía libre electrostática
para la creación de un conjunto de N cargas {g¡}, separadas entre sí por distancias rVp
en el vacío y en un medio de permitividad dieléctrica relativa eT con unos radios
asociados para las esferas de Born {a¡}. Si se adopta un cálculo no variacional de ésta

474

Índice
Capítulo 9

contribución, las cargas pueden asignarse bien de forma empírica o mediante


cálculos mecano-cuánticos donde las cargas parciales se obtienen ajustando el
potencial electrostático molecular (Brpneman et al., 1990). En los métodos mecano-
cuánticos se incluye esta interacción en el hamiltoniano y en consecuencia se alcanza
una autocoherencia entre la distribución de cargas y la interacción total del sistema
(Tapia, 1982).

9.43. Modelos Mixtos Discreto-Continuos o Semicontinuos.

En esta aproximación el efecto del gran tamaño del sistema al abordar la


modelización de un medio condensado es minimizado al incluir un agregado
formado por el soluto y un pequeño número de moléculas de disolvente dentro de un
continuo dieléctrico (Figura 9.16)
(Claverie et al., 1978). Con este
planteamiento se tratan de
aprovechar las ventajas de los
modelos discretos y continuos. Para
la región cibotáctica se mantiene una
descripción detallada de las
interacciones soluto-disolvente y los
efectos de medio condensado del
bulk se describen por medio del
continuo dieléctrico. Así las
interacciones específicas que se
presentan en la zona próxima al soluto son tratadas a un nivel microscópico, mientras
que el promedio estadístico del resto del disolvente se trata por medio de una
representación macroscópica.
Es interesante señalar que la discontinuidad introducida por la superficie de la
cavidad dentro de esta aproximación va siendo cada vez una limitación menos
importante, en cuanto que en este contexto se situaría en una región que separa
moléculas de disolvente cada vez menos perturbadas por el soluto. Como
inconvenientes asociados a la aplicación de este modelo está la asignación de un
volumen a la cavidad yaque ésteevidentemente no es la simple adición de los
volúmenes moleculares o de cavidad de cada una de las moléculas que constituyen el

475

Índice
Capítulo 9

agregado. La estructura del agregado contiene unos espacios propios, aquéllos que
son característicos de la estructura de la disolución, que no pueden adscribirse a
ninguna de las moléculas que conforman el agregado. Otra limitación, quizás más
profunda, es la indeterminación en el número de moléculas de disolvente precisas
para satisfacer las interacciones específicas, así como sus orientaciones. Estos puntos
están íntimamente relacionados a la necesidad de introducir aspectos estadísticos en
los cálculos cuando se aumenta el número de partículas en el sistema (Sánchez
Marcos et al., 1991). Es por ello que su aplicabilidad, al igual que en los modelos
presentados anteriormente, esté limitada aun cuando la información que de su uso
pueda obtenerse en muchos casos resulte de enorme utilidad (Cramer et al., 1999).
Un aspecto interesante que resultá de esta aproximación es la idea física que sostiene,
en el sentido de reconocer que en disolución más que un único tipo de moléculas de
disolvente hay una cierta variedad de ellas en la medida que la perturbación del
disolvente a nivel microscópico en la región cibotáctica en cierta forma las hace
moléculas de disolvente distintas. Esto ha conducido al desarrollo de una serie de
técnicas donde hay modelos de solvatación implícitos que en distintas formas
introducen la región cibotáctica, dando así una componente de especifidad a la
interacción soluto-disolvente (Cramer et al., 1999). Una de las primeras formas de
éstos se basa en aplicar una permitividad dieléctrica distinta al medio en las
proximidades del soluto, con lo cual se introduce el fenómeno de la saturación
dieléctrica, o de forma más general el concepto de constante dieléctrica “local” que
será menor a la correspondiente al bulk (Tomasi et al., 1994, Contreras et al., 1985).
Se han desarrollando métodos más sofisticados durante los últimos años que incluyen
las contribuciones de dispersión y de repulsión-cavitación dentro del modelo,
adoptando formulaciones semiempíricas (Cramer et al., 1999).

9.5 TÉCNICAS DE SIMULACIÓN POR ORDENADOR BASADAS EN


MÉTODOS ESTADÍSTICOS

La Mecánica Estadística es la aplicación de la Estadística y la Teoría de la


Probabilidad a la comprensión de problemas de muchos cuerpos en Mecánica, tanto
Clásica como Cuántica. Esta aplicación trabaja a dos niveles; por un lado la
Mecánica Estadística nos ayuda a comprender propiedades macroscópicas y las leyes
de la Termodinámica. Por otro lado nos permite calcular propiedades macroscópicas

476

Índice
Capítulo 9

como la capacidad calorífica, la constante dieléctrica o la susceptibilidad magnética,


a partir de una descripción microscópica en términos del hamiltoniano del sistema.
Los sistemas macroscópicos están compuestos de un gran número (del orden
del número de Avogadro, NA) de átomos y moléculas que están en continuo
movimiento. Para extraer las cantidades observadas experimentalmente es preciso
realizar promedios estadísticos sobre estos movimientos. Los métodos de simulación
por ordenador son en la actualidad una herramienta bien establecida en muchas
ramas de la Ciencia. Las razones que justifican esto son muy variadas (Heermann,
1990):
¿^Eliminan aproximaciones. En general para tratar un problema de forma analítica
hay que recurrir a algún tipo de aproximación. Por medio de simulaciones por
ordenador al resolverse por métodos numéricos no es necesario la introducción de
aproximaciones.
ii)Como los métodos de simulación pueden aplicarse a sistemas complejos, sus
resultados pueden tomarse como referencia para teorías aproximadas. Asimismo,
aquéllos permiten comparar modelos con experimentos, y de este modo suministrar
un medio de contrastar la validez de un modelo.
iii) Los métodos de simulación llenan el hueco entre teoría y experimento. Algunas
cantidades o comportamientos pueden ser difíciles, o incluso imposibles, de medir en
un experimento, por lo que ciertos resultados en condiciones extremas predichos por
teorías y que pueden ser cruciales para refrendar la validez de éstas pueden ser
generados por las simulaciones, que de este modo se convierten en auténticas
generadoras de “experimentos numéricos”.
En la base de una simulación está un modelo físico bien definido. En éste hay
una serie de propiedades que se desean calcular. El punto de vista que se adopta es
que estas propiedades u observables aparezcan como promedios sobre algún espacio
de muestra. La situación más clara se da cuando mediante minimización de la
energía pueden obtenerse todas las configuraciones de mínimo sobre una superficie
de energía correspondiente al sistema completo; en este caso las fórmulas de la
Mecánica Estadística permiten obtener la función de partición,

to d o s lo s
estad os

0 = 2 e ~E‘íkT ° de forma más general Q = J f{H(x)Jdx (9.75)


‘ Q

477
Índice
Capítulo 9

donde H es el hamiltoniano del sistema, x= ( x }, x 29...,xn) es un estado del


sistema donde n es el número de grados de libertad, f es la función de distribución
apropiada al problema y Q representa el conjunto de estados accesibles por el
sistema (Heermann, 1990).
No obstante una descripción completa de Q sólo es posible para moléculas
relativamente pequeñas o conjuntos moleculares pequeños en fase gaseosa. Más
habitualmente, en una investigación se desea comprender y predecir las
propiedades de líquidos, disoluciones y sólidos, para estudiar procesos complejos
como la adsorción de moléculas sobre superficies, y absorciones en sólidos, o
investigar el comportamiento de macromoléculas que tienen muchos mínimos
conformacionales muy próximos. En estos sistemas las medidas experimentales se
realizan sobre muestras macroscópicas, por lo que el número de átomos y
moléculas es enorme, así como el correspondiente número de mínimos sobre la
hipersuperficie de energía potencial. Es por tanto claro que una cuantificación
completa de las superficies de estos sistemas macroscópicos no es posible, y puede
que no lo sea nunca, en los términos anteriormente formulados. Los métodos de
simulación por ordenador nos permiten abordar el estudio de estos sistemas y la
predicción de propiedades mediante el uso de técnicas que consideran pequeñas
réplicas del sistema macroscópico con número de átomos o moléculas manejables
(del orden de cientos o miles). Una simulación genera configuraciones
representativas de estas réplicas de forma que se consiguen valores precisos de las
propiedades termodinámicas y estructurales con esfuerzos computacionales
razonables. Las técnicas de simulación pueden tratar la dependencia temporal de
los sistemas de forma que proporcionan una imagen detallada de la forma en la que
un sistema cambia de una configuración a otra.

9.5.1 Promedios Temporales y Promedios sobre Conjuntos

De forma general propiedades, A, tales como la presión o la capacidad


calorífica, dependerán de las posiciones y momentos de las N partículas que

A ( p N (t ) , r N ( t ) ) = A ( p x¡ , p y¡ , p z¡ , p X2 ,...,xx, y x, z x,...,t) (9.76)

constituyen el sistema. Así el valor instantáneo de A puede escribirse

478
Índice
Capítulo 9

donde p N (t) y r N(t) representan los N momentos y posiciones en el tiempo t.


Con el tiempo, el valor instantáneo de la propiedad A fluctúa como un resultado de
las interacciones entre las partículas. Así el valor de la propiedad se obtiene cuando
el intervalo del promedio temporal tiende a infinito

A = - CA(pN( t ) , r N(t))át y de aquí A„ = limA, (9.77)


XJ T -» o o
V t=0
Para calcular valores promedios es por tanto necesario simular el comportamiento
dinámico del sistema, es decir, obtener valores de Á { p N (t), r N(t)) a distintos t,
basados sobre un modelo de interacciones intra- e intermoleculares. A partir de las
energías de interacción sobre cada partícula se puede por diferenciación calcular la
fuerza que actúa sobre ella, y de aquí aplicando la segunda ley de Newton se
determina la aceleración. La posterior integración de las ecuaciones de movimiento
proporciona la trayectoria, que describe cómo las posiciones, los momentos
(velocidades) y las aceleraciones de las partículas varían con el tiempo. A partir de
estos valores pueden obtenerse los valores promedios de A mediante el equivalente
numérico de la ecuación (9.77). La dificultad manifiesta es que para cantidades
macroscópicas de átomos y moléculas (del orden de NA) no es factible ni tan
siquiera determinar una configuración inicial. Es en este punto donde los
desarrollos de Boltzmann y Gibbs en Mecánica Estadística plantean la alternativa
de reemplazar un único sistema evolucionando con el tiempo, por un gran número
de réplicas del sistema que se consideran simultáneamente. De esta forma se
sustituye, “Media Temporal” por “Media de un Colectivo o Conjunto3”

(.A } = f f A ( p NJ Ny p ( p N, r N) d p Nd r N (9.78)

( ) indica valor esperado, siendo un promedio del colectivo (o conjunto) quiere


decir el valor medio de la propiedad A sobre toda las réplicas del conjunto
generado por la simulación. p ( p N, r N) es la densidad de probabilidad del
conjunto, es decir la probabilidad de encontrar una configuración con los
momentos p N y las posiciones f N . En un sistema donde se mantengan constantes

Q E(pN ’rN)/kT !
p ( p N, r N) =------ ------ donde QNVT = — w f f c ÁTdpNd r N (9.79)

479
Índice
Capítulo 9

el núifiero de partículas, N, el volumen, V y la temperatura T , la densidad de


probabilidad se puede expresar por

La media del conjunto se determina integrando sobre todas las posibles


configuraciones del sistema. En este punto es conveniente introducir la “Hipótesis
Ergódica” que es uno de los axiomas de la Mecánica Estadística, y que establece

{a ) - T „ (9.80)
que la media estadística sobre un colectivo o conjunto es igual a su media temporal
(Leach, 1996).

En otros términos puede expresarse esta hipótesis afirmando que para un proceso
estacionario de carácter aleatorio, un gran número de observaciones hechas sobre
un único sistema en N instantes arbitrarios de tiempo, tienen las mismas
propiedades estadísticas como observar en el mismo tiempo N sistemas elegidos
aleatoriamente a partir de un colectivo de sistemas similares (McQuarrie, 1976).
Una de las mayores limitaciones de los métodos de simulación es que una
simulación no puede describir una evolución durante un tiempo infinito. La
observación temporal está limitada a tiempos finitos, por lo que habrá que
muestrear y contentarse con .Para un sistema dado, el espacio definido por
el conjunto de variables de posición ({ r N }) para todas las partículas se denomina
“Espacio Configuracional”, mientras que el espacio de dimensión 6 N formado por
el conjunto de variables de posición y momento ({ r N} , { p N }) se llama “Espacio
de Fase”. Como se ha indicado previamente, cualquier estado adoptado por el
sistema corresponderá a un punto, tanto en el Espacio de Fase como en el
Configuracional. Las técnicas de simulación tratan de realizar un muestreo
adecuado de estos espacios para las condiciones del sistema bajo estudio. En
definitiva, el problema es cómo propagar el sistema a través del espacio de fase (o
configuracional). Los métodos de simulación que van a examinarse abordan el
problema desde dos perspectivas diferentes, la Dinámica Molecular es un método
determinista, mientras que el método de Monte Carlo-Metropolis hace uso de
procesos estocásticos.

3 El término inglés es “ensemble”.


480
Índice
Capítulo 9

9.5.2 Introducción al Método de Dinámica Molecular (DM)

Es un método determinista, es decir, conocidas unas condiciones para un


tiempo dado es posible conocer lo que ocurrirá en el sistema en el futuro y también lo
que ocurrió en el pasado. La idea básica de este método es utilizar la “dinámica
intrínseca” del modelo para propagar el sistema. Las posiciones atómicas (o
moleculares) se ajustan de modo secuencial mediante el empleo de las ecuaciones de
movimiento de Newton. La integración de estas ecuaciones con el tiempo permite
construir una trayectoria de puntos en el espacio de fase ({ r N(t)},{pN (0 })- ^
Dinámica Molecular es un método determinista por cuanto el estado futuro del
sistema puede predecirse a partir de su estado actual. La primera simulación de
Dinámica Molecular fue realizada por Alder y Wainwright en 1956 (Alder et al.,
1956). En ella estudiaron la dinámica de un conjunto de esferas duras. Se supone que
las partículas se comportan como bolas de billar: las partículas se mueven en línea
recta a velocidad constante entre colisiones, y cuando éstas se producen, es decir,
cuando la separación entre los centros de las esferas es la suma de sus radios, son
perfectamente elásticas. Tras una colisión, las nuevas velocidades de las esferas que
colisionan se calculan utilizando el principio de conservación del momento lineal.
Los valores medios termodinámicos se obtienen como media de los valores
calculados de la propiedad en las M etapas calculadas:

(9.81)

Las trayectorias de las partículas se obtienen resolviendo la ecuación


diferencial de la segunda ley de Newton,

Para sistemas reales, los potenciales de interacción son continuos y la fuerza que
actúa sobre cada partícula cambiará cuando la partícula cambie de posición o cuando
cualquier otra partícula lo haga. Este acoplamiento lleva a que la integración de las
ecuaciones de movimiento se realice utilizando un método de diferencias finitas: las
ecuaciones de movimiento se integran en intervalos de tiempo muy cortos, At - “time
step”-. Típicamente se dan valores del orden del femtosegundo (lfs=10'15s), aunque

481

Índice
Capítulo 9

este valor es dependiente del método de integración empleado. En cada etapa, a un


tiempo t se calcula el vector suma de todas las interacciones que actúan sobre una
partícula dada y se determina la fuerza que actúa sobre ella. Se calculan las fuerzas
sobre todas las partículas y se combinan con la posición y velocidad actuales para
generar la posición y velocidad para un tiempo más avanzado, t+At . Se supone que
la fuerza que actúa sobre cada partícula es constante en el intervalo de tiempo, At,
asociado a cada etapa.
Los algoritmos para calcular las posiciones, velocidades, aceleraciones etc.,
parten de desarrollar en series de Taylor estas magnitudes:
donde b(t) y c(t) son las derivadas tercera y cuarta de la posición respecto del
tiempo, respectivamente.
Uno de los algoritmos de integración que han sido más utilizados es el de
Verlet (1967) (Verlet, 1967) que trunca el desarrollo para las posiciones al orden dos,

r(t + At) = ?(t) + v(t)At + ~ a ( t ) ( A t ) 2 + - b ( t ) ( A t f + — c(t)(At)4 + ... (9.83)


2 6 24

v(t + At) = v{t) + a(t)At + —b( t )( At ) 2 + —c(¿)(A ¿ ) 3 +... (9.84)


2 6
S(t + At) = a(t) + b ( t ) ( A t ) + ^ c ( t ) ( A t ) 2 +... (9.85)

1 9
r(t + At) = r(t) + v(t)At + —a(t)(At) +... (9.86a)

r ( t - At) = T ( t ) - v ( t ) A t + ^ a ( t ) ( A t f - ... (9.8 6b)


la suma de las dos ecuaciones anteriores da

r ( t + At) = 2r(t) - r ( t - At) + a(t)(At)2 (9.87)

Esta ecuación indica que para predecir la nueva posición de una partícula se requiere
conocer su posición en las dos etapas anteriores y la aceleración. Este algoritmo de
integración no solamente es uno de los más sencillos sino que en cierta forma es
generalmente uno de los que presenta más estabilidad. No obstante, pueden señalarse
como inconvenientes los problemas de redondeo numérico que en ocasiones
aparecen debidos a que en la ecuación (9.87) se muestra que para obtener la nueva
482

Índice
Capítulo 9

posición hay que sumar una cantidad pequeña, a(t)(At)2 (hay que recordar que At es
del orden del femtosegundo), a la diferencia entre dos términos grandes como son las
posiciones precedentes de la partícula. La velocidad no tiene que calcularse
explícitamente para determinar la evolución del sistema, pero puede obtenerse de una
cualquiera de las dos formas indicadas a continuación,

(9.88 a) (9.88 b)

Hay varios algoritmos equivalentes al esquema de Verlet, entre los cuales el más
sencillo es el del “salto de rana” (“leapfrog”) (Hockney et al., 1981). Este algoritmo
1
f (t + At) = r ( t ) + v(t + — Ai) Ai (9.89)

lo cual requiere el cálculo de la velocidad a mitad del intervalo

evalúa las velocidades en la mitad de los intervalos de integración y utiliza éstas para
calcular las nuevas posiciones.4 A partir de la ecuación (9.88b) se puede calcular la
nueva posición de la partícula,
Para calcular las velocidades en los tiempos correspondientes a intervalos completos
se utiliza la expresión

v(0 = ^- v (í + 1 a í ) + v (í - Í a O (9 .9 i)

Ventajas sobre el algoritmo de Verlet son que la velocidad se calcula explícitamente


y que la posición no se calcula como diferencia entre dos cantidades grandes. Como
inconveniente está el asincronismo entre la velocidad y la posición.
Otro algoritmo muy utilizado es el de Beeman (Beeman, 1976) que
proporciona las mismas trayectorias que el método original de Verlet, pero mejores
estimaciones de la velocidad,

4 El nombre del método proviene justamente de esta alternancia entre etapas (saltos) donde la
velocidad y la posición están desfasados por medio intervalo. Es decir, las velocidades hacen
un “salto de rana” sobre las posiciones para dar valores en t+At/2.
483

Índice
Capítulo 9

r{t + A t) = r{t) + v(í)A í + - a ( t ) ( A t ) 2 - - a(t - At)(A t)2 (9.92)


3 6

v (t + At) = v(t) + —5(¿ + At)(At) + —a(t)(At) - —a (í - At)(At) (9.93)


3 6 6

Las velocidades calculadas por medio de la ecuación (9.93) se estiman mejor que con
el algoritmo de Verlet, en consecuencia la conservación de la energía total del
sistema es mejor ya que la componente cinética se calcula con mayor precisión en el
transcurso de la simulación. Este esquema de integración es más costoso.

9.53 Método de Monte Cario

Los métodos estocásticos toman una aproximación distinta a los


deterministas para acceder al cálculo de las propiedades de un sistema. En ellos sólo
se evalúa la parte configuracional, partiendo de la base que una integración siempre
permite eliminar la dependencia de los momentos. Aunque a primera vista podría
pensarse que la eliminación de los momentos supone una grave limitación para
procedimientos posteriores, un sencillo análisis muestra que la función de partición
de un sistema real, tiene un término que corresponde al comportamiento de gas ideal
y otro de exceso que solo depende de las interacciones entre las partículas del
sistema, por lo cual la evaluación de la parte configuracional es la componente clave
para describir a los sistemas reales. El problema por consiguiente, no es tanto realizar
la prospección del espacio configuracional, sino más bien disponer de un criterio
para establecer el paso de una configuración a otra. Ya que los aspectos dinámicos se
han eliminado, ahora no hay variable tiempo con lo que no tenemos la correlación de
un estado pasado, uno presente y uno futuro, relacionados por las ecuaciones de
movimiento de las partículas.
Las transiciones en los métodos estocásticos se controlan por medio de
factores probabilísticos dentro de lo que se denominan “Procesos de Markov”. Una
variable estocástica es aquélla que puede tomar una serie de valores discretos, pero
éstos se dan con una cierta probabilidad de forma aleatoria. Sea X(t) una variable
estocástica o aleatoria que es una función del tiempo. El cambio de X con el tiempo
se llama un proceso aleatorio o estocástico. Éste involucra una variable estocástica
que toma valores aleatorios cuyo desarrollo en el tiempo no está gobernado por una
ecuación determinista. Solamente son conocidas las probabilidades de que la variable
484

Índice
Capítulo 9

aleatoria tome ciertos valores a tiempos dados. Cuando una variable aleatoria alcanza
un cierto valor se dice que el sistema físico está en determinado “estado” y su
evolución temporal se imagina como una progresión de un estado a otro. Cuando la
probabilidad de que se dé un proceso estocástico desde un estado del espacio
configuracional a otro solamente depende del estado de partida se dice que el proceso
es de tipo Markov. El proceso de Markov es el análogo probabilístico a la dinámica
intrínseca. Esta aproximación tiene la ventaja de permitir la simulación de modelos
que no tienen una dinámica intrínseca.
El método de Monte Cario genera configuraciones del sistema
aleatoriamente y utiliza un conjunto de criterios especiales para decidir si se acepta o
no se acepta una nueva configuración. Estos criterios son tales que aseguran que la
probabilidad de obtener una configuración dada es igual a su factor de Boltzmann,
-v(?Ny
e /kT donde V (r ) se calcula mediante la función energía potencial. De este
modo los estados con baja energía se generan con probabilidad superior que las
configuraciones de alta energía. Para cada configuración que se acepta se calculan

(9.94)

los valores de las propiedades investigadas y al final del cálculo el promedio de estas
propiedades se obtiene a partir de los M valores calculados de la propiedad,
Es más apropiado referirse a las simulaciones de Monte Cario de sistemas
moleculares en sistemas condensados como cálculos de “Monte Cario Metropolis”
ya que fueron Metropolis y colaboradores (Metropolis et al., 1953) los que
propusieron el método en Los Alamos, como una de las primeras aplicaciones no
armamentísticas de las máquinas de cálculo electrónico. En una simulación de Monte
Cario cada nueva configuración del sistema se puede generar moviendo
aleatoriamente un átomo o molécula; aunque en algunos casos puede conseguirse la
nueva configuración mediante el movimiento de varios átomos o moléculas o por la
rotación de una parte de la molécula entorno a un enlace. Si la energía de la nueva
configuración es más alta que la energía de su predecesora entonces el factor de
Boltzmann de la diferencia de energía se calcula por medio de la expresión

485
Índice
Capítulo 9

-\v
II nueva (rN)-
V / V ■(rN)1/
previa \' J Jr

F =e /kT (9.95)
Asimismo se genera un número aleatorio entre 0 y 1, Naleat, y se compara su valor
con F. Hay dos posibilidades,
a)N aleat s> F el movimiento se rechaza, se conserva la configuración
original.
b) Naleat < F el movimiento se acepta y la nueva configuración es el
nuevo estado.
Este proceso permite movimientos hacia estados de energía más altas, es decir, no
siempre el sistema evoluciona hacia estados de más baja energía. Hay que destacar
que conforme más pequeña sea la diferencia de energía (Vnueva - Vprevia) mayor será la
probabilidad de que se acepte el movimiento.

Conviene señalar que la clave del método de Metrópolis es sustituir un


muestreo uniforme del espacio confíguracional en un proceso de Monte Cario., donde
por tanto a todos los puntos del espacio confíguracional se les da el mismo peso, por
otro en el cual solamente se escogen aquellas configuraciones que tienen una
probabilidad alta dada por el factor de Boltzmann, y tienen en consecuencia peso
(Wilde et al., 1998). Una de las claves del método es que el muestreo de Metrópolis
trabaja sobre probabilidades relativas de los diferentes puntos del espacio
confíguracional (microestados) y ello permite no requerir a priori el conocimiento de
la función de partición total. El siguiente ejemplo puede ayudar a comprender la
forma en la cual trabaja el método de MC-Metropolis.5 Si se desea conocer la
profundidad del río Tajo podemos imaginar dos métodos con exigencias muy
distintas (Figura 9.17). En una cuadratura convencional, el valor del integrando se
haría midiendo la magnitud en un conjunto de puntos predeterminados. Como la
elección de estos puntos no depende del valor del integrando (profundidad del Tajo),
si el territorio considerado es la Península Ibérica, muchos puntos se localizarán
sobre puntos del territorio donde el valor es cero (puntos fuera del río). Por el
contrario con el método de Metrópolis, se construye un camino aleatorio a través del
cauce, donde el valor del integrando no es despreciable. En este método, un cambio a
otro punto geográfico fuera del río se desechará, pero se aceptará si va a otro punto

5 Este ejemplo es una adaptación “nacional” del dado por Frenkel y Smit en su libro (Frenkel
et al, 1996).
486
Índice
Capítulo 9

del cauce, incluso si la profundidad es menor que en el actual. El promedio sobre


todos los puntos medidos dará la profundidad del Tajo.
Es conveniente establecer de forma
simple cuáles son las principales
diferencias que tienen las técnicas
de Dinámica Molecular y Monte
Cario:
a) DM proporciona información
sobre la dependencia del tiempo de
propiedades del sistema, mientras
que no hay relación temporal entre
sucesivas configuraciones MC.
b) En una simulación MC el
resultado de cada movimiento solo
Figura 9.17
depende de la configuración
precedente, mientras que en una simulación DM es posible predecir la
configuración del sistema en cualquier tiempo futuro (o pasado).
c) DM tiene una contribución de energía cinética a la energía total, mientras que en
las simulaciones MC, la energía total sólo tienen contribuciones de la función de
energía potencial.
d) Los conjuntos que típicamente muestrean ambos tipos de simulaciones son
distintos: DM trabaja sobre todo en el colectivo microcanónico (NVE), mientras
MC trabaja sobre todo en el canónico (NVT). Es posible, no obstante modificar
las técnicas para que se muestreen otros colectivos. Dos de los más utilizados son
el isotérmico-isobárico (NTP) y el gran canónico (¡xVT), en el cual el número de
partículas no permanece constante. Los estados de equilibrio da cada uno de
estos colectivos están caracterizados por la siguiente situación de una función de
estado,__________ _______________________________________________
Conjunto Función de Estado Situación
canónico A (energía libre Helmholtz) mínimo
microcanónico S máximo
isotérmico-isobárico G (energía libre de Gibbs) mínimo
gran canónico PV máximo

487
Índice
Capítulo 9

9.5.4 Cálculo de Algunas Propiedades Termodinámicas y Estructurales.

Con los resultados obtenidos de las simulaciones es posible calcular distintas


propiedades tanto termodinámicas, como estructurales, dinámicas y
espectroscópicas. No obstante conviene resaltar que tanto los distintos tipos de
conjuntos como las técnicas de simulación no siempre se adecúan a la determinación
de ciertas propiedades. Así por ejemplo, para calcular el valor de una propiedad ésta
no debe pertenecer al grupo de las que se fijan dentro del colectivo en el que se está
realizando la simulación.

9.5.4.1 Propiedades Termodinámicas

Una de las propiedades termodinámicas básicas es la energía interna, U, que


se puede evaluar en una simulación como el promedio de las energías de los estados
i M
U = < E > ------- y E i (9.96)
m H

que se han visitado en el transcurso de la simulación:


La Capacidad calorífica a volumen constante se define como la derivada de
la energía interna con respecto a la temperatura a volumen constante,
Cy = \ A t \ - Una forma de calcular esta propiedad es por medio de

diferenciación numérica de la energía interna obtenida a varias temperaturas, lo


cual implica la realización de varias simulaciones de las que obtener un conjunto
de pares de valores (UbT). También es posible otra forma de calcular C v a partir
de una única simulación si se consideran las fluctuaciones instantáneas de la
energía,

c _ <(E-<E>f > _ <£»>-<E S


v kT kT2 y ’
este resultado, proviene de una relación de Termodinámica Estadística. Por tanto, si
se desea calcular Cv se requiere conservar los valores de E 2y E en el transcurso de
la simulación. Otra forma es guardar estos valores y al final de la simulación
calcular el valor esperado de la energía, <£>, y a continuación calcular el valor

488
Índice
Capítulo 9

esperado del cuadrado de las desviaciones, <(E - <E>)2>, dado que <E2> y <E>2
son números muy grandes y pueden dar lugar a errores serios de redondeo.
Para el cálculo de la presión se recurre al virial, W = ^ x iPx >donde x¡ es
i

una coordenada y p x la primera derivada del momento a lo largo de esa


coordenada. El teorema del virial puede formularse por W = -3 N kT , para un
sistema real el virial total es

(9.98)

donde la derivada del potencial de interacción respecto a la distancia de separación



es cambiado de signo la fuerza que actúa entre los centros i y j. Despejando la
presión de la ecuación (9.98) y sustituyendo W llegamos a

(9.99)

En una simulación de DM las fuerzas fy se calculan como parte de la simulación,


por lo que la estimación de P supone poco esfuerzo. Sin embargo, en una
simulación MC esto no es directo y se precisa establecer una ruta particular para
determinar P.
La temperatura es una de las propiedades que se mantiene como constante
en algunos colectivos, por ejemplo en el canónico. Sin embargo en el colectivo
microcanónico la temperatura fluctuará. Para su cálculo se recurre a la energía
cinética del sistema, de acuerdo al teorema de equipartición de la energía, cada
grado de libertad contribuye con _kT . Si hay N partículas, la contribución será

(9.100)

kT . Nc es el número de restricciones incluidas en el sistema, que elimina


grados de libertad. Así, en simulaciones de DM se acostumbra a igualar a 0 el
momento lineal total del sistema, lo que haría que Nc=3.

489
Índice
Capítulo 9

9.5A.2 Propiedades Estructurales. Funciones de Distribución Radial

Al querer describir la estructura de un medio condensado,


como es un líquido, las funciones de distribución radial son
una forma adecuada de describir la estructura del
conjunto. Supongamos una capa esférica de espesor 6 r a una

Figura 9.18 y = ^ Jt^r + ¿ r ) 3 _ ^ J tr 3 « 4jcr2dr (9.101)

distancia r de un átomo dado (Figura 9.18). El volumen de esta capa esférica será
donde se ha supuesto que el espesor de la capa esférica es suficientemente pequeño
como para hacer despreciable las potencias superiores a uno de 6 r. Si el número de
partículas por unidad de volumen es p, entonces el número total de partículas en
esa capa esférica será 4jtpr2Sr con lo cual el número total de partículas varía como
r2. La función dedistribución de pares, g(r), da la probabilidad de encontrar un
átomo omolécula a una distancia r de otro átomo o molécula comparada a la
distribución de un gas ideal. g(f) es adimensional. Aunque pueden definirse
funciones de distribución de orden superior, es decir, involucrando tres, cuatro, o
más partículas; en general, son las funciones de distribución de pares las que
reciben una atención mayor.

h ?
‘V

RcxM
',i
Figura 9.19a Figura 9.19b
En la Figura 9.19a se muestra la probabilidad de encontrar dos átomos
separados una distancia r para un típico metal en polvo (Murrel et al., 1994),
mientras que la Figura 9.19b muestra la probabilidad de encontrar un átomo de
490
Índice
Capítulo 9

oxígeno entorno a otro átomo de oxígeno en agua líquida. Se ve que las


oscilaciones se amortiguan mucho más rápidamente en disolución. Por
comparación en ambas figuras se dibuja la función 4icr2p, es decir, el caso en el
que g(r)=l. Así, es manifiesto que en el sólido las magnitudes estructurales deben
reflejar la existencia de orden a largo alcance, mientras que para el líquido sólo
aparece orden a corto alcance (hasta ~7Á). La Figura 9.20 muestra la FDR para
oxígeno-oxígeno en agua líquida. Se observa que para cortas distancias (menores a
la suma de los radios atómicos) la FDR es igual a cero, lo cual refleja el carácter
repulsivo de las interacciones de muy corto alcance. El primer pico aparece entorno
a 2.9 Á y es el que tiene mayor altura (RDF=2.7), es decir, la presencia de un
oxígeno a esa distancia de otro átomo de oxígeno es 2.7 veces más probable que en
una distribución de partículas
que no interaccionan. Para la
distancia de 3.1 hay un
mínimo (R D F=0.75) que
indica que la probabilidad de
encontrar un oxígeno a esa
distancia es tres cuarto de la
cor r es pondi e nt e a una
distribución de gas ideal. A
una distancia de r -4.0 Á hay
un segundo má x i mo
Figura 9.20 (RDF=1.2) que indica la
preferencia 1 . 2 veces mayor que en una distribución de gas ideal de oxígenos, lo
cual refleja el carácter estructural del agua como disolvente. Para distancias
suficientemente grandes, r > 7 Á, la FDR tiende a 1.
Para calcular g(r), los vecinos entorno a cada átomo o molécula se
clasifican en “bin” de distancias (tramos) o histogramas. El número de vecinos en
cada “bin” se promedia en la simulación completa.
Las FDR pueden obtenerse experimentalmente a partir de técnicas de
difracción de rayos X y de neutrones, tanto para sólidos como para líquidos. Es
conveniente señalar que la Termodinánica Estadística demuestra cómo se pueden
calcular propiedadestermodinámicas a partir de las FDR. Así por ejemplo,
suponiendo que en el sistema se daun carácter aditivo por pares de las interacciones,
1 1 oo 3 co
E = —NkT + —N J 4nr2pg(r)V(r)dr = —NkT + 2jiNpj r 2g(r)V(r)dr (9.102)
2 2 o 49^2 o

Índice
Capítulo 9

la energía puede calcularse mediante la expresión


donde V(r) es la energía de interacción entre las partículas y la partícula central.
Asimismo, la presión tiene una expresión del tipo

(9 .1 0 3 )

Para moléculas, además de las FDR es preciso manejar la orientación de forma que
hay que hablar de “funciones de distribución orientacional”. Alternativamente, para
moléculas poliatómicas pueden determinarse un conjunto de FDR entre distintas
posiciones características (“s/te”) de la molécula.

9.S.4.3 Propiedades Dependientes del Tiempo: Funciones de Correlación


Temporal.

Dado que las configuraciones extraíbles de una simulación de DM están


conectadas por el tiempo, éstas pueden utilizarse para calcular propiedades
dependientes del tiempo. A menudo estas propiedades se calculan como
“Coeficientes de Correlación Temporal”. Una función de correlación proporciona un
valor numérico que cuantifica el grado de correlación. Imaginemos dos conjuntos de
datos {x¡, i=l,...M} e {y¡, i=l,...M} puede definirse una función de correlación,

(9 .1 0 4 )

La función de correlación puede normalizarse dividiendo por la raíz cuadrada de las

< xy >
c (9 .1 0 5 )

medias de los cuadrados


Cuando los conjuntos {x} e {y} no están correlacionados, cxy=0 y cuando hay un alto
grado de correlación cxy= ±1. En el caso de que las funciones dependan del tiempo
pueden definirse “funciones de correlación temporales”

Cxy(t) = < x(t) y(0) > (9.106)

492
Índice
Capítulo 9

que en el caso de que las funciones x e y sean la misma función se definen como
“función de autocorrelación”. Este tipo de función de autocorrelación indica la
extensión en la cual un sistema retiene la memoria de sus valores previos. Una de las

(9 .1 0 7 )

funciones más calculadas en simulaciones de DM es el coeficiente de la función de


autocorrelación de velocidades
cuya expresión normalizada conduce a
El tiempo necesario para perder la correlación se llama “tiempo de correlación” o
“tiempo de correlación”. Si el tiempo de simulación es significativamente mayor que

(9 .1 0 8 )

el tiempo de relajación, entonces pueden calcularse estos tiempos, si la función se


ajusta a una exponencial simple, cvv(t) ~ e"'/x, donde x es el tiempo de relajación.
Relacionado con estas funciones también aparecen propiedades de transporte
de las partículas que constituyen el sistema. Así por ejemplo, es posible calcular el
coeficiente de difusión, D, de una partícula en un fluido a partir de la función de

00

3D=j{v(t)-v(0)}dt (9 .1 0 9 )
o
autocorrelación de velocidades,
La integración de la función de autocorrelación a tiempo infinito es 3 veces el
coeficiente de difusión. También es posible calcular D por medio de la relación de
Einstein mediante el cálculo de los desplazamientos cuadráticos medios,

(9 .1 1 0 )

9.5.5 Aspectos Prácticos de las Simulaciones por Ordenador

Aunque hay muchas diferencias entre los métodos de simulación de MC y


DM, una serie de elecciones y ajustes comunes permiten que se puedan agrupar un
conjunto de aspectos prácticos que requieren la realización de una simulación por
ordenador. El primero de todos es la elección de los potenciales de interacción inter-
493

Índice
Capítulo 9

e intramoleculares. Dado que en general disponemos de un sistema modelo con un


elevado número de partículas, y los cálculos de la interacción a realizar son el
aspecto más costoso computacionalmente, inicialmente se utilizaron potenciales
efectivos de carácter empírico y simples. No obstante, cada día son más los cálculos
que utilizan potenciales de origen cuántico, o que incluso en algunos niveles el
modelo de energía de interacción es mecano-cuántico, calculado para todas o algunas
de las configuraciones que se están tratando. En una Sección posterior se abordará en
detalle este tipo de estrategias. Tras la selección inicial del potencial, las diferentes
etapas de la simulación pueden agruparse en
1. Determinación de la configuración inicial
2. Fase de Equilibrado
3. Fase de Producción
4. Análisis de la simulación

9.5.5.1 Elección de la Configuración Inicial

Es en general deseable arrancar de una situación que recuerde el tipo de


estructura que se desea simular, así como evitar interacciones de alta energía, por
ejemplo por tener en la geometría inicial átomos muy próximos, ya que ello podría
ser causa de inestabilidades en la simulación. Así por ejemplo, si se arranca una
simulación de DM con una gran repulsión entre dos partículas, la componente
cinética de éstas será fuente de inestabilidades durante un cierto período inicial ya
que estas partículas del sistema poseerán unas velocidades anormalmente altas. Es
por esta razón que en ocasiones se parte de una configuración que previamente se ha
minimizado. En otras ocasiones, si se está en estado sólido y se disponen de datos
experimentales, como los suministrados por una estructura de rayos-X, esta opción es
muy conveniente. En el caso de no disponerse de estos datos, la configuración de
partida puede tomarse de una red cristalográfica conocida; por ejemplo una red
cúbica centrada en las caras. El tamaño de la red se ajusta para que la densidad
adecuada se reproduzca. Si lo que se simulan son moléculas además es preciso dar la
orientación de la molécula, lo cual en ocasiones se realiza de forma aleatoria, o bien,
si hay posibilidad de repulsiones fuertes por solapamientos entre partículas en
medios densos, entonces hay que prestar especial atención a las orientaciones
definidas en el primer punto.

494

Índice
Capítulo 9

9.5.5.2. Límites del Sistema Simulado

El tratamiento correcto de los efectos de


contorno y de los límites del sistema simulado
son fundamentales para que los métodos de
sim ulación puedan estim ar propiedades
macroscópicas con un número relativamente
pequeño de partículas. Es por ello preciso
introducir condiciones que permitan modelar un
sistema con un “b u lk ” y no el de un gran
agregado o una gota de líquido o un grano de
sólido, salvo que sea eso lo que específicamente Figura 9.21
se busque. La forma en que esto se consigue es estableciendo “Condiciones
Periódicas de Contorno” (PBC, “Periodic Boundary Conditions”). Imaginemos una
red cúbica de partículas que se replica en todas las direcciones del espacio
generando una matriz (o red) periódica. En dos dimensiones el cuadrado central
genera 8 cuadrados iguales y en tres dimensiones 26 (Figura 9.21). Cuando una
partícula en un movimiento dado abandona la caja central, es inmediatamente
reemplazada por otra partícula imagen que entra por la cara opuesta de la caja, con
lo que el número de partículas en la caja central permanece constante (Figura 9.22).

Además de la celda cúbica que es


il v' * "kV':r*.*$ !;!'J9 ^ó0 -á- 9 ¿ ^ 8 O
O ® \ r?*
sistema periódico más sencillo para
:&v OI rt ^ t/*'f* A - v
immmMrnmmmmm
* >:1visualizar y programar hay otras formas

j v‘ * -Ir *L
v <3 1 J

espacio mediante operaciones de traslación


................

í00 O-frO*-
a O• .*" i
de la caja central en tres dimensiones:
----------------

| :-'frü ; $^ 0 ,^9 paralelepípedo, prisma hexagonal, octaedro


1v $. 9f r *1v -i *A truncado, dodecaedro róm bico y
: *
:» 9 v AM/V ~rt «í O v‘ í-'t
* ij ☆ $ " \
dodecaedro elongado (Alien et al., 1987).
Cuando el problema que se trata se adapta
Figura 9.22 a alguna de estas formas es manifiesto que
se consigue una disminución notable en el número de partículas a tratar, lo que en
definitiva redunda en una mayor eficiencia computacional. Así por ejemplo,
imaginemos que si se desea simular un fragmento de cadena de ácido nucléico con

495

Índice
Capítulo 9

estructura helicoidal una caja de tipo prisma hexagonal se adaptará mejor a la


topología del sistema.
Para problemas de adsorción superficial las condiciones periódicas no se
aplican en tres dimensiones sino en dos dimensiones.
Una clara limitación de una celda periódica es que no es posible conseguir
fluctuaciones con una longitud de onda mayor que la longitud de la caja (o celda)
central. Si las interacciones son de más largo alcance que el tamaño de la caja ello
puede conducir a que se exagere el orden a larga distancia en el sistema. No
siempre las simulaciones requieren PBC, así cuando se estudian gotas de líquido o
agregados de van der Waals donde intrínsecamente haya superficies del sistema
próximas y no haya exigencia de modelar un ub u W éstas no se emplean.

9.5.5.3 Control de la Fase de Equilibrado

El objetivo de esta fase es hacer evolucionar el sistema desde la


configuración inicial hasta alcanzar el equilibrio. Esta fase hay que prolongarla
hasta que los valores de un conjunto de propiedades que se siguen llegan a ser
estables. Entre las propiedades seguidas están la energía, temperatura, presión y
propiedades estructurales. Estas últimas engloban a “parámetros de orden” que
pueden dar cuenta, por ejemplo, si un sistema está en estado sólido o líquido. Esto
es importante ya que en ocasiones para algunas simulaciones de líquidos se parte
de una configuración de red cristalina. Así para controlar el estado de agregación se
recurre a definir ciertos parámetros estructurales, tales como el “parámetro de
orden X” propuesto por Verlet que tiene en cuenta el desorden traslacional de un
líquido respecto al que presenta un sólido dada la mayor movilidad de las especies
en estado líquido.

donde a es la longitud de un lado de la celda unidad. Suponiendo inicialmente una


red cúbica centrada en las caras todas las coordenadas (xif yb z¡) son múltiplos de
a ll con lo cual X=l. Conforme avance la simulación si el sistema funde este

496

Índice
Capítulo 9

parámetro tiende a 0 indicando que las partículas se distribuyen aleatoriamente.


Cuando estamos en el equilibrio las fluctuaciones de X deben ser proporcionales a
1/N-.
Otro parámetro para controlar si una red ha fundido es el desplazamiento
cuadrático medio:

A''í ( ' ) = ^ £ f , ( ' ) - ñ ( o ) r (9.H 2)

Para un fluido sin ninguna estructura regular, Ar2(t) aumenta gradualmente con el
tiempo; sin embargo, para un sólido esta magnitud debe oscilar entorno a un valor
medio.

9.5.S.4 Truncamiento del Potencial y la Convención de Imagen Mínima

La parte que consume más tiempo de una simulación es el cálculo de las


energías y/o fuerzas intermoleculares, ya que éste crece con el cuadrado del
número de partículas si se supone que hay una aditividad por pares ( _[N-1]N ).
Para muchos modelos de potenciales de interacción no está justificado este
esfuerzo computacional ya que la interacción es muy pequeña o nula a partir de
ciertas distancias de separación entre partículas. Por ejemplo, un potencial de
Lennard-Jones, )^J(r=2.5a) =? 0.01 VLJ(r=a) lo que está reflejando el decaimiento
de la interacción con f 6. La forma más habitual de ahorrar tiempo de cálculo es
aplicar radios de corte (“cut-ofj”), rc, para las interacciones intermoleculares y la
“Convención de Imagen Mínima”, es decir que cada partícula solo interaccione
como mucho, con una imagen de cada una de las partículas que constituyen el
sistema (Figura 9.22). La energía de interacción se calcula con la partícula más
próxima. Cuando se aplica un radio de corte las interacciones entre partículas
separadas más de la distancia de corte se igualan a cero. En muchas ocasiones, al
aplicar PBC el radio de corte no se toma mayor a la mitad de la longitud de la caja.
rc<L/2. Finalmente conviene señalar que cuando las partículas tienen distintos
términos de interacción de muy distinta naturaleza, pueden emplearse diferentes
radios de corte para cada uno de ellos.
El uso de un radio de corte puede no reducir drásticamente el tiempo para
calcular las interacciones intermoleculares debido a que en todo caso hay que
calcular la distancia entre todos los pares de partículas para decidir si se aplica o no el
radio de corte, y las distancias crecen como el cuadrado del número de partículas. En
497
Índice
Capítulo 9

simulaciones de fluidos la vecindad de cualquier partícula no cambia mucho durante


unas, pocas etapas de DM o iteraciones de MC. Así si sabemos las partículas que
están dentro de una determinada región y almacenamos sus etiquetas en un vector,
entonces sería posible calcular las distancias entre estas partículas y la de referencia
durante unos pocos pasos de DM y MC sin necesidad de tener que calcular las de las
llemás partículas que están fuera de esa región. Este es el principio básico de la
técnica de la “Lista de Vecinos” sugerida por Verlet. El tamaño de la región debe ser
siempre mayor que el radio de corte con objeto de evitar que una partícula en el
intervalo entre actualizaciones entre en la región interna donde hay que calcular su
interacción con la partícula de referencia (Alien et al, 1987, Frenkel et al, 1996).
Con el uso del radio de corte hay una fracción de la energía potencial que
se ignora. No obstante ésta puede recuperarse con relativa facilidad en ciertos casos

E correc=27rpN¡r2 V (r)d r (9.113)

al final de la simulación, en particular si ya para r > rc la FDR es igual a la


unidad.
A partir de la ecuación anterior se puede comprobar que las interacciones con una
potencia r"n donde “n” es la dimensionalidad del problema o valores menores tienen
dificultades para la estimación de la corrección de la energía de interacción. Esto
pone de manifiesto que la interacción a longitudes mayores a la de la mitad de la
caja es significativa. Las interacciones de tipo coulombiano al depender de r 1
precisan de tratamientos específicos para dar cuenta del largo alcance de estos
potenciales. Esto es particularmente importante para la evaluación de propiedades
como la constante dieléctrica, el coeficiente de difusión y para eliminar la
dependencia con la talla del sistema de la energía de interacción por partícula. El
método de la suma de Ewald fue propuesto para abordar el estudio de cristales
iónicos en los años veinte (Alien et a l, 1987). En él una partícula interacciona con
el resto de partículas en la caja de simulación y con todas sus imágenes en una
matriz infinita de celdas periódicas. En el método cada carga puntual se supone
rodeada de una distribución de carga neutralizante de igual magnitud pero de signo
opuesto que forma un “espacio real”. El punto clave es que la suma de los términos
de interacción converge muy rápidamente. No obstante, se precisa añadir otra
contribución al potencial que se debe a las distribuciones de carga que
contrarrestan las distribuciones gaussianas generadas en el espacio real, este
498
Índice
Capítulo 9

conjunto de distribuciones de signo opuesto componen el “espacio recíproco”. Este


método muy empleado en sólidos y líquidos tiende a reforzar artefactos que
resultan de las aplicaciones de PBC lo cual genera una cierta cristalinidad en los
sistemas que no presentan orden a larga distancia. Además, el método es
computacionalmente costoso, pudiendo multiplicarse el tiempo de simulación por
factores que oscilan entre 3 y 10. Se han propuestos tratamientos alternativos como
el de Campo de Reacción, cuya base se ha desarrollado en una sección previa, o el
Método de los Multipolos de Celda (también llamado de “Multipolo Rápido”) o el
método PPPM (partícula-partícula/partícula-malla) (Frenkel et al., 1996).

9.5.5.5 Análisis de los Resultados de una Simulación y Estimación de los Errores

Cuando se realiza una simulación hay que extraer información sobre


propiedades y/o estructuras con una cierta frecuencia que permita controlar que no
hay comportamientos extraños en la prospección del espacio de fase o
configuracional que se está examinando. Hay que tener cierta precaución a la hora
de seleccionar la información que se va a guardar ya que un exceso de información
puede fácilmente colapsar las capacidades de almacenamiento del ordenador sobre
el que se realiza la simulación. Por ello, si en lugat de seguir la estructura se sigue
E, T o P, el cálculo adicional que supone es muy pequeño y sin embargo el
volumen de información acumulada es pequeño, mientras que estas propiedades sí
son sensibles a comportamientos extraños en la simulación. En la fase de
producción la acumulación de información para el análisis de propiedades y su
evaluación debe llevarse a cabo con sumo cuidado ya que una mala elección de los
datos a guardar puede impedir el posterior cálculo de propiedades.
Una simulación está sometida a errores y es necesario realizar un
tratamiento de éstos cuando se calculan las propiedades; En lo que concierne a
errores sistemáticos, éstos son debidos a las aproximaciones del modelo utilizado
(potencial de interacción) y a las condiciones de la simulación (número de
partículas, tiempo de simulación -para DM- o número de configuraciones -para
MC-, errores de truncamiento, etc...). Una forma de detectar errores sistemáticos es
comparar la distribución de los valores de propiedades termodinámicas simples
alrededor de los valores medios, esta distribución debería ser normal o gaussiana.

499
Índice
Capítulo 9

En lo que respecta a los errores estadísticos, éstos se definen mediante las


desviaciones estándares. Como las simulaciones no son infinitas, los valores
promedios o esperados de A, <A>, no son los verdaderos que corresponderían a
simulaciones infinitas. Así, la relación entre la desviación estándar de una
simulación finita para una estimación de A, g a, y la que sería el “verdadero” valor
de la desviación estándar para una simulación infinita, o, es: o A « o/M-, donde M
es el conjunto de valores medidos para A. Esto quiere decir que se mejora la
desviación estándar con el inverso de la raíz cuadrado del número de medidas. Esto
se aplica para muestreos independientes. Ello indica que es costoso disminuir a Aya
que hay un grado de correlación alto entre configuraciones sucesivas tanto en DM
como en MC. Otra forma de mejorar los errores estadísticos es aumentando el
número de partículas en la simulación, de este modo la desviación estándar de una
propiedad puede disminuirse ya que varía con el inverso de la raíz cuadrada del
número de partículas N (o A~ -1/N-). Con objeto de estimar los errores en la
evaluación de propiedades pueden realizarse simulaciones en trozos o tramos
estadísticamente no correlacionados, o independientes, y calculando después el
valor medio de A y su desviación estándar asociada a las distintas series.

500
Índice
Capítulo 9

9.6 A proxim aciones al problem a de sim ular m oléculas con un enorme


núm ero de átom os
El gran desarrollo de las herramientas computacionales ha permitido
qpe los cálculos mecanocuánticos se realicen sobre moléculas de tamaño
elevado incluyendo el medio que las rodea. Este hecho plantea también cómo
manejar, comprender y analizar la gran cantidad de información que se genera
en estos cálculos. Para abordar el estudio de sistemas químicos es indispensable
ampliar y mejorar las prestaciones de los ordenadores para simular y visualizar
este tipo de sistemas. Esta combinación de “hardware” y “software” es un
reto no sólo en este campo sino en la investigación científica en general. En
particular el desarrollo de las estaciones de trabajo ha conseguido tener a
nuestra disposición una herramienta muy útil que se esta haciendo necesaria en
cualquier grupo de investigación en Química. Este avance considerable se ha
conseguido gracias al desarrollo de modelos y algoritmos matemáticos
altamente eficaces implementados en ordenadores de cálculo científico cada vez
mas potentes y con mejores prestaciones. Por tanto, la modelización molecular
es un campo de investigación claramente interdisciplinar que utiliza métodos de
la Química, Matemáticas e Informática y puede considerarse de particular
importancia en el contexto de las nuevas tecnologías para el intercambio de
información-a través de redes electrónicas avanzadas (Worl Wide Web, www).
Desde la década de los 80 se han conseguido avances notables que han
permitido llegar a la situación actual. Las imágenes en la pantalla del ordenador
puede ser manipuladas de tal modo que se pueden aumentar o disminuir,
trasladar o rotar. Se puede elegir el color, la forma y el tamaño de las diferentes
partes de la estructura o cambiar la escala de la imagen representado la totalidad
de la molécula o bien elegir una parte concreta de la misma. Esta
manipulaciones de la imagen utilizando estos programas se realizan con un
menú principal de uso sencillo que está conectado con la ventana gráfica de la
estación de trabajo. Citaremos el trabajo de Ferrin y Klein (Ferrin and Klein,
1998) donde se presenta una buena recopilación de la técnicas utilizadas en
representación gráfica y modelización molecular y, en particular, en el trabajo
de Brickmann se ha realizado una presentación muy completa de las diferentes
501
Índice
Capítulo 9

técnicas de visualizaeión de propiedades moleculares en Química (Brickmann et


al., 1998).
La modelización molecular de sistemas con un elevado número de
átomos, como polímeros o sistemas biológicos, es fundamental para estudiar
propiedades microscópicas y/o fenómenos macroscópicos, Una descripción
clara de la estructura de una molécula puede tener un gran valor conceptual.
Como ejemplo bien conocido podemos citar la estructura del ADN publicada
por Watson y Crick que revolucionó el conocimiento sobre la herencia humana
y las enfermedades genéticas. La simulación, representación, visualizaeión y
posterior análisis de moléculas con un número de átomos elevado, como
polímeros o sistemas biológicos se consigue utilizando programas que generan
imágenes 3-D precisas, como los programas comerciales Insigth-97 y Quanta y
los de distribución libre como el RasMol (Ráster Molecules,
http://www.umass.edu/microbio/rasmol, http://www.umass.edu/microbio/rasmol/
getras.htm) y el Mage que puede ser usado*a través de la página web del
Journal of Protein Science (http://www.prosci.org). Estos programas suelen estar
disponibles en plataformas Windows, MacOS o UNIX. La flexibilidad de estos
programas de modelización molecular permite generar la estructura de grandes
moléculas biológicas a partir de las coordenadas cartesianas de cada átomo
constituyente.
Existen diferentes bases de datos como el Protein Data Bank, PDB
(http://www.rcsb.org/pdb/) (F.C. Bemstein et al., 1977) o el Brookhaven Protein
Data Bank Web (http://www.pdb.bnl.gov./pdb/index.html) de acceso libre y de
dominio público donde se encuentran ficheros PDB de miles de estructuras de
sistemas biológicos obtenidas por cristalografía de rayos-X o por estudios de
resonancia magnética nuclear (RMN). Un método conveniente para buscar los
ficheros pdb es a través de la página web de los National Institutes of Health
(http://molbio.info.nih.gov/cgi-bin/pdb) (N. Millar, 1996 y Horton, 1997). Cabe
señalar el trabajo de Priestle y Gregory donde se recopilan las diferentes bases
de datos accesibles (Priestle and Gregory, 1996). Para localizar en estas bases de
datos la estructura del sistema buscado se utilizan la palabras claves relacionadas
con ella y una vez encontrada, se accede al fichero pdb en formato text y se
502
Índice
Capítulo 9

transfieren las estructuras completas a las estaciones de trabajo. Existen varios


programas para convertir el fichero de coordenadas con diferentes formatos,
uno de los mas utilizados es el basado en el programa Babel desarollado por
Walters y Stahl (babel@mercury.aichem.arizona.edu). Después la estructura se
visualiza en 3-D utilizando alguno de los programas citados anteriormente
junto con programas externos de visualización que emplean librerías de
tratamiento gráfico como el OpenGL (OpenGL, 1992). Resaltamos el trabajo
reciente de Dabrowiak y colaboradores (Dabrowiak et al., 2000) donde se
muestra como la modelización molecular puede dar lugar a diferentes
aplicaciones en el campo de la Bioquímica.
El objetivo fundamental de la modelización molecular es comprender
las propiedades químicas y físicas de una molécula a partir de su estructura dada
por la geometría tridemensional 3-D que adopta. Para conseguir este nexo de
unión se hace necesario correlacionar estas propiedades con sus
correspondientes funciones químicas, catalíticas o biológicas o incluso
racionalizar el diseño de moléculas con unas funciones bien determinadas. Esta
relación estructura/función es de importancia central en muchos campos
científicos como la biología molecular, biotecnología, diseño de drogas, catálisis
o ciencia de materiales. Desde la perspectiva experimental, los biólogos han
logrado grandes avances que les han permitido resolver con gran precisión las
estructuras de sistemas biológicos. Como hemos señalado en el apartado
anterior, la cristalografía de rayos-X y lá espectroscopia de RMN proporcionan
una gran cantidad de información estructural de estos sistemas y sus
interacciones con otras moléculas en estado sólido y en disolución. De hecho, la
aplicación de las técnicas interactivas que permitían la visualización de la
estructura fue utilizada inicialmente para la interpretación de los resultados
obtenidos por difracción de rayos-X.
Una vez las coordenadas de los átomos constituyentes son conocidas se
puede pasar al análisis del sistema representando su estructura 3-D en el
ordenador. La naturaleza de la molécula no sólo depende de su geometría, sino
de otras características como son las propiedades químicas y físicas de cada
átomo constituyente (carga, tamaño, etc.) o la superficie molecular que controla
503
Índice
Capítulo 9

la estabilidad, el reconocimiento e interacciones con otras moléculas. Como ya


se comentó en el subapartado 9.4.2.3, la definición de la cavidad donde se sitúa
el soluto, relacionada con el concepto de superficie molecular, es fundamental
para representar correctamente las interacciones con el disolvente. Existen
diferentes maneras de representar las superficies moleculares; la más utilizada
fue la propuesta por Connolly (R. Langridge et al. 1981) en los años 80.
Posteriormente, Silla y colaboradores han desarrollado algoritmos más
avanzados para este tipo de representaciones que han tenido un amplia difusión
en Química y Bioquímica (Silla et al, 1990, 1991; Pascual-Ahuir et al., 1994). El
cálculo, representación y manipulación de las superficie moleculares tiene
muchas aplicaciones, de las que vamos a enumerar: i) La superficie accesible se
puede relacionar con la entalpia y energía libre desolvatación y la
hidrofobicidad (Chothia, 1975; Tuñon et al. 1992; Freyberg et al, 1993; Tuñón
et al., 1993; Smith et al., 1994; Pitarch et al, 1996). ii) La complementariedad
entre superficies moleculares se puede relacionar con la afinidad y
especificidad entre ligandos y posibles receptores, entre proteínas y entre
proteínas y ligandos e incluso con el empaquetamiento en proteínas (Cherfils
eta, 1993, Grootenhuis, 1994, DesJarlais et al., 1994). iii) Existen métodos para
el cálculo del campo electrostático alrededor de una molécula que basan en una
buena representación de la superficie molecular. El reconocimiento molecular,
por ejemplo entre proteínas, se basa en la complementariedad electrostática y
de forma en la interfase proteina-proteina (Juffer et al., 1991, Xiang et al,
1995). iv) El plegamiento de proteínas (Zehfus, 1993). v) la solubilidad de
gases en líquidos. (Scharlin et al, 1998).
Por último y para resaltar aun más la importancia de la visualizaeión de
las propiedades moleculares citaremos el trabajo de Bader basado en el análisis
topologico de la densidad electrónica con innumerables aplicaciones en
Química y Física (Bader, 1990); el campo del gradiente de la densidad
electrónica define un sistema dinámico y las cuencas atómicas y de esta forma
es posible realizar una división del espacio molecular en regiones que
corresponden a los átomos en la molécula. Este método ha tenido su
continuación con el desarrollo de la función de localización electrónica (ELF)
504
Índice
Capítulo 9

(Becke y Edgecombe, 1990). ELF es un manera de tener un orden de magnitud


de la repulsión de Pauli en cada punto del espacio molecular. Silvi et al. (Silvi
and Savin, 1994) utilizando ELF han conseguido una clasificación de los
enlaces químicos y plantear un modelo matemático del enlace que se puede
usar en el estudio de su evolución durante un proceso reactivo (Krokidis et al.,
1997 y 1998). El programa se llama TopMoD (Noury et al, 2000) y es de
acceso libre (http://www.lct.jussieu.fr/silvi/topmod_english.html.)
Para la descripción correcta de la estructura de un sistema biológico se
deben calcular las posiciones de miles de átomos. Sin embargo, estas moléculas
vibran, giran y rotan. Las distancias y ángulos de enlaces se mueven alrededor
de su correspondientes valores de equilibrio. El tamaño y complejidad de estos
sistemas con un elevado número de átomos hacen necesario el uso de funciones
empíricas para la descripción de las interacciones entre los átomos
constituyentes del sistema, del tipo de las descritas anteriormente en el apartado
9.2.
La función de energía potencial o campo de fuerzas del tipo empírico
está parametrizado para reproducir los valores experimentales o los obtenidos
mediante cálculos teóricos de ciertas propiedades de un conjunto de sistemas
modelo (Bowen et al., 1991, Dinur et., 1991, van Gunsteren et al, 1997). Para
realizar la exploración de la superficie de energía potencial (SEP) y localizar las
estructuras más estables o seguir las trayectorias correspodientes a cambios
conformacionales en la misma mediante cálculos de dinámica molecular se
utilizan diferentes estrategias para eliminar el excesivo número de grados de
libertad. Se suelen utilizar algoritmos que impiden los movimientos de
“stretching” de los enlaces y se consideran sólo los ángulos que definen los
diferentes aminoácidos constituyentes de la estructura secundaria de una
proteína. Este tratamiento reduce el número de grados de libertad alrededor de
un tercio y aumenta el tiempo de cálculo un factor entre dos y tres. El
algoritmo SHAKE utiliza esta aproximación ha sido desarrollado por Ryckaert
y col (Ryckaert et al., 1977, Ryckaert, 1985) y se ha mejorado con versiones
basadas en el algoritmo de Verlet, discutido en el apartado 9.5.2 (Andersen,
1983). Este método está implementado en la mayoría de programas descritos
505
Índice
Capítulo 9

anteriormente como el CHARMM (Brooks, 1983) o en el programa de


dinamica molecular GROMOS de van Gunsteren y col. (van Gunsteren, 1996).
En el apartado siguiente vamos a presentar un ejemplo donde se aplica
la técnica basada la metodología QM/MM para el estudio de la reactividad
química en sistemas biológicos, como son las enzimas, con un doble objetivo;
por una parte mostrar cómo una técnica computacional trabaja y por otra
ofrecer la posibilidad de conocer qué tipo de fenómeno puede ser estudiado.

9.6. 1 Método QM/MM


Los cálculos de mecánica cuántica (QM) son capaces, en principio, de
describir las reacciones químicas que suponen la formación y ruptura de
enlaces. Los métodos híbridos QM/MM pueden ser utilizados de forma que el
subespacio reactivo del sistema (el soluto en una reacción en disolución o el
sustrato del centro activo en una reacción enzimàtica) es tratado explícitamente
con métodos QM mientras que el resto del sistema (moléculas de disolvente o
aminoácidos) se trata con un métodos de mecánica molecular (MM) estándar
(Tapia y Gocinski, 1975; Warshel, y Levitt,, 1976; Tapia, 1980, 1982, 1992;
Luzhkov, y Warshel, 1992, Singh y Kollman, 1986, Field, 1990, J. Gao, 1992,
1996, Svensson et al, 1996, Maseras y Morokuma, 1995, Woo et al, 1998, Ruiz-
López y Rivail, 1998). Este método se aprovecha de la exactitud y la
generalidad del tratamiento cuántico para las reacciones químicas y la economía
computacional del cálculo clásico. Como las estructuras electrónicas de los
puntos estacionarios en la SEP son determinadas con el método cuántico, el
procedimiento es apropiado para el estudio de reacciones químicas y no es
necesario parametrizar las funciones potenciales para cada nueva reacción.
Además, los efectos de polarización del medio sobre el soluto pueden incluirse
de forma directa en los cálculos QM.
En el tratamiento combinado QM/MM, el sistema molecular a estudiar
(tanto una disolución como un sistema enzima-sustrato) se puede dividir en 3
partes (ver figura 9.12): una región QM, una región MM y una región de
contorno.

506
Índice
Capítulo 9

entornó

Figura 9.12 Representación esquemática de la división de un sistema en la


región QM, región MM y región de contorno.

Las regiones QM y MM contienen todos los átomos que son tratados


explícitamente en el cálculo mientras que la región de contorno se incluye para
salvar los problemas que se presentan al utilizar un sistema de tamaño finito.
Para ello se simula la continuidad del sistema aplicando bien unas condiciones
de contorno periódicas o bien un potencial. La región QM contiene todo los
átomos que intervienen en la reacción o aquéllos que por alguna razón
necesiten un tratamiento cuántico. Normalmente contiene, como mínimo, las
moléculas del soluto o las del sustrato más los residuos del centro activo de la
enzima que intervienen en la reacción química (ruptura y formación de
enlaces). La región MM contiene el resto de átomos del sistema. Sus
interaccionesse determinan mediante una función de energía potencial
empírica. Estos átomos constituyen el entorno inmediato de los átomos QM por
lo que sus interacciones y dinámicas tendrán una influencia importante en los
átomos QM, de ahí la necesidad de incluirlos.
Para calcular la energía y las fuerzas de cada átomo del sistema se
construye un Hamiltoniano efectivo, Hefr, y se resuelve la ecuación de

507
Índice
Capítulo 9

Schrödinger independiente del tiempo para la energía del sistema, E, y la


función de onda de los electrones de los átomos QM, VF:

J V K ( r ; Ä „ , (9-100)

La función de onda es función de las coordenadas de los electrones, r, y


depende de las posiciones de los núcleos mecanocuánticos, y de los átomos
MM, Rm. La energía se calcula para cada geometría de los núcleos QM y de los
átomos MM y se obtiene la SEP para el sistema.
La energía se obtiene a partir de la función de onda y el Hamiltoniano
según la siguiente ecuación:

E = (9.101)

El Hamiltoniano efectivo para el sistema total se puede escribir como la


suma de 4 términos, que es muy similar a la ecuación 9.58 del apartado 9.4
presentada anteriormente:

H eff —HQM + H MM ~^H qm/ ma{ H cc (9.102)

El primer término en la ecuación (9.102) es el Hamiltoniano que


describe las partículas mecanocuánticas (electrones y núcleos) del sistema y sus
interacciones. Es un Hamiltoniano electrónico estándar no relativista y en
unidades atómicas se escribe como:
z„z„
a
(9.103)
ij ia aß Raß

donde i, j y a, (3 indican las coordenadas electrónicas y nucleares


respectivamente, r es la distancia electrón/electrón o electrón/núcleo, y Za es la
carga nuclear.

Índice
Capítulo 9

La parte MM del Hamiltoniano, H MM, describe la región MM, El


Hamiltoniano que describe la interacción entre los átomos QM y MM viene

dado por H QMIMM y la interacción entre las regiones QM y MM con el entorno

por el Hamiltoniano H c c .
Las fuerzas sobre los núcleos QM, Fa y los átomos MM, FM, se obtienen
derivando la ecuación (9.101) respecto a las coordenadas cartesianas de los
núcleos y los átomos:

F = - — Fm = ~ (9-104)
" ¿IH.a M SRU

Para describir la parte QM pueden usarse diversas metodologías:


métodos semiempíricos (Bash et al, 1987, Cummins and Gready, 1997,
Salvatella et al, 1998, Alhambra et al, 1998), ab initio (Tapia and Johannin,
1981; Singh and Kollman, P. A., 1986, Mulholland et al., 2000) o de
funcionales de la densidad (Stanton et al., 1993, Wei and Salahub, 1994, Tuñón
et al., 1995).
El Hamiltoniano MM es función de las posiciones de los átomos
tratados mediante mecánica clásica. No depende de las coordenadas de las
electrones y núcleos de los átomos QM, y por tanto coincide con un número:

H mm ) =: E Mm ) (9.105)

Por ello, para calcular la energía MM se utiliza un campo de fuerzas


MM estándar como los presentados en el apartado 9.2. Los átomos MM se
representan como cargas parciales y esferas de van der Waals centradas en los
centros de los átomos cuando éstos interaccionan a larga distancia. Cuando
interaccionan a corta distancia se unen con enlaces, ángulos y ángulos diedros
parametrizados con constantes de fuerza armónicas que determinan la
conectividad de la molécula. El campo de fuerzas y la parametrización utilizada
en los cálculos que presentamos a continuación están basados en los campos de

509
Índice
Capítulo 9

fuerza TIP3P implementados en el programa CHARMM24 (Brooks et al.,


1983).

El Hamiltoniano describe cómo interaccionan los átomos QM


con los MM. Como los átomos MM se representan por cargas puntuales y
parámetros de van der Waals el Hamiltoniano de interacción más simple puede
escribirse en unidades atómicas, como:

r — _V 4-"V , V J^ (9. 106)


QMMM ~ Zu r ^ Z j n ^ Z j 1 »12 n6
iM iM oM oM aM I cxM oM

donde los subíndices “ i 55 hacen referencia a los electrones de los átomos QM,
los subíndices “a ” a los núcleos de los átomos QM y los subíndices “M ” a los
átomos MM. El primer término de la ecuación (9. 106) representa las
interacciones electrostáticas entre los átomos MM y los electrones de los átomos
QM. El segundo término representa las interacciones electrostáticas entre los
átomos MM y los núcleos de los átomos QM. El tercer término describe las
interacciones de van der Waals, siendo necesario incluirlo ya que algunos
átomos MM no tienen carga, y de otro modo resultarían invisibles a los átomos
QM. Los dos últimos términos de la ecuación (9. 106) son constantes, ya que
no incluyen coordenadas electrónicas, de modo que pueden ser calculados y
sumados directamente a la energía total. Sin embargo, el primer término sí que
incluye coordenadas electrónicas por lo que debe tratarse en el procedimiento
SCF.
La energía total es la suma de los valores de cada término en el
hamiltoniano:

E = E qm + E um + E qMÍMM + E cc ( 9 . 107)

Como la función de onda sólo depende paramétricamente de el


término EMMpuede salir fuera de la integral en la ecuación (9. 101) y tenemos:

510
Índice
Capítulo 9

QM H qM /
+ £ MM (9. 108)

donde también se han separado los términos de las condiciones de contorno en


QM y MM.
Debido a que el efecto del disolvente o la proteína se simula mediante
un número finito de átomos, deben introducirse condiciones de contorno para
compensar la ruptura del sistema y así intentar imitar el resto del sistema que no
puede ser tratado explícitamente. Existen, al menos, dos posibles métodos: uno
de ellos consiste en aplicar condiciones de contorno periódicas (Alien and
Tildesley, 1987), mientras que en el otro se aplica un potencial radial. En el
primer método el sistema es duplicado trasladándolo periódicamente en las 3
dimensiones de tal forma que el sistema completo consiste en un enrejado
infinito de copias exactas de la caja central o del grupo de átomos primarios. La
energía y las fuerzas de interacción de los átomos primarios y sus imágenes se
calculan y se suman al total del sistema. La única complicación es que las
imágenes contienen copias de los átomos QM y que su distribución de carga
cambia durante un cálculo.
En el otro método el sistema se representa como una pseudoesfera y el
potencial límite se elige para imitar el potencial que un disolvente o un enrejado
produciría. Este método no presenta ninguna dificultad porque la energía y las
fuerzas de interacción sobre los átomos QM debidas al contorno se calculan
exactamente de la misma forma que para los átomos MM.
En algunos sistemas la separación en regiones QM y MM implica
describir parte de una molécula por métodos cuánticos y el resto por MM (ver
figura 9.13). Por ejemplo, en una reacción enzimàtica algunos residuos tienen
un papel catalítico importante (sufren reacción química) y deben ser tratados
mecanocuánticamente mientras que el resto de la proteína sería tratado
clásicamente. Lo mismo ocurre cuando el sustrato o alguna molécula orgánica

511
Índice
Capítulo 9

es muy grande. En estos casos hay enlaces covalentes entre los átomos QM y
MM.

R egión Q M

F igura 9.13 Representación esquemática de la división de un enlace covalente a


través de las regiones QM y MM.

Debido a que los electrones de los átomos MM no se tratan


explícitamente se necesita un esquema donde la densidad electrónica QM a lo
largo de los enlaces QM/MM pueda ser determinada satisfactoriamente. Se han
propuesto diferentes esquemas para dicha partición (Rinaldi et al. 1992,
Christoffersen and Maggiora, 1969, Davis et a l, 1974, Alien, 1981, Thery et al.,
1994). Un articulo reciente donde se comparan algunos de los métodos más
eficientes para representar la necesaria separación entre las partes QM y MM ha
sido publicado por Karplus et al. (Reuter et al, 2000).
La metodología QM/MM ha sido aplicada para el estudio de la
reactividad química de sistemas de gran tamaño. Se ha estudiado los procesos
de solvatación y reactividad de moléculas en fases condensadas, incluyendo las
reacciones de catálisis heterogénea sobre superficies e incluso los procesos de
formación de cristales. En un trabajo reciente Monard y Merz recopilan un
buen número de aplicaciones en sistemas biológicos de este método QM/MM
(Monard and Merz, 1999).

512
Índice
Capítulo 9

9.6.2. Aplicaciones: catálisis enzimàtica


En primer lugar, a modo de introducción, presentaremos una
perspectiva teórica para entender la catálisis enzimàtica basada en las
propiedades de las estructura de transición (ET). A continuación estudiaremos
la reacción química que tienen lugar en el centro activo de la enzima Corismato
Mutasa. y la última parte comprende una discusión y unas perspectivas.
El proceso catalítico en una enzima engloba un gran numero de etapas,
pero sólo algunas de ellas son reacciones químicas en las que se forman y/o se
rompen enlaces químicos. Antes y/o después de éstas existe toda una serie de
procesos que corresponden a cambios conformacionales, reacciones ácido/base
etc..., que sirven para preparar a la enzima para llevar a cabo el acto químico
fundamental que tiene lugar generalmente en el centro activo, que corresponde
a la reacción primaria en la enzima durante la catálisis. El resto de etapas
corresponden a procesos secundarios que determinan la eficiencia de la enzima.
Por lo tanto, el estudio teórico se centra en la reacción primaria, de forma que
podemos estudiar los mecanismos moleculares de las reacciones que
constituyen el proceso de interconversión química, etapa catalítica primaria,
construyendo la SEP y en particular localizando la ET correspondiente. Todos
estos casos, presuponen un conocimiento de la estructura y propiedades del ET
de la reacción química a ser catalizada (Williams, 1993).
La propuesta de Pauling planteada en 1946 (Pauling, 1946, 1948,
1948) para entender la catálisis enzimàtica y que hoy en día sigue siendo válida
se sustenta en una idea tan clara y sencilla como elegante, que está basada en la
teoría del estado de transición: una enzima es fundamentalmente una plantilla
molecular ligeramente flexible, diseñada a través de la evolución para ser
complementaria a la geometría de los reactivos en su estado de transición, y no
a la geometría de los reactivos en su estado fundamental. De esta forma, una
enzima se enlazaría fuertemente al estado de transición de la reacción que
cataliza estabilizándolo respecto a los reactivos. O dicho de otro modo,
desestabilizando a los reactivos y en consecuencia acelerando la velocidad de
reacción. Esta descripción de la catálisis enzimàtica es en la actualidad conocida
como la estabilización del estado de transición (Knowles, 1987). Recintemente,
513
Índice
Capítulo 9

Houk (Tantillo et a l, 1998) ha acuñado el termino “teozim a”(de la


contracción de enzima teorico) o “com puzima” como una formación de
grupos funcionales dispuesto en una geometría predicha por la teoría para
proporcionar una estabilización al estado de transición. Este concepto ha sido
utilizado para entender el funcionamiento de los enzimas y diseñar nuevos
inhibidores, haptens, estados de transición análogos o catalizadores a utilizar en
rutas sintéticas (Lee et al, 1996, Na et al, 1996, Lee y Houk, 1997 Venturini et
al, 1998 Coxon y Thorpe, 1999, Amó et al, 1999).
Los estudios teóricos en catálisis enzimàtica han recibido gran atención
y se puede considerar que han seguido tres lineas de actuación. En la primera
cabe resaltar los trabajos de Kollman y colaboradores (Stanton et al, 1998) y
Bruice y colaboradores (Lightstone et, 1998 #1648) siguiendo el trabajo
pionero de Warshel y Levitt (Warshel y Levitt, 1976, Warshel, 1992) donde se
calcula la energía libre a lo largo de un camino de reacción determinado. La
segunda línea se centra en el estudio del mecanismo molecular identificando y
caracterizando las ETs como puntos de silla de orden uno en la SEP que son
compatibles con el centro activo del enzima estudiada (Tapia et al., 1988; Oliva
et al., 1999). Un tercer procedimiento ha sido desarrollado por Williams y
colaboradores (Moliner et al., 1997; Tumer et al., 1999) donde la hessiana se
diagonaliza y la naturaleza de los puntos estacionarios se caracterizan en
presencia del enzima utilizando el programa GRACE (Moliner et al., 1997;
Tumer et al., 1999).
El ejemplo elegido es la reacción de corismato a prefenato catalizada
por la enzima corismato mutasa. Este sistema es motivo de estudio en la Tesis
Doctoral de Sergio Martí (Martí et al, 2000) y tiene la ventaja de que el sustrato
no forma enlaces covalentes con el entorno y además esta transformación
también tiene lugar en disolución acuosa. Esta reacción química del tipo Claisen
tiene lugar a través de un equilibrio conformacional previo entre la forma
diecuatorial y diaxial de corismato, siendo el conformero diaxial el reactivo
capaz de dar lugar al producto, pasando por una estructura de transición en
forma de silla en la que se produce la formación de un enlace carbono-carbono
y de un enlace carbono-oxígeno (Figura 9.14).
514
Índice
Capítulo 9

COO-
-ooc
coo-
O
HO
O
OH OH

Preequilibrio pseudodiecuatorial-pseudodiaxial de la corismato Estado de Transición Prefenato

Figura 9.14

Un estudio teórico completo de este ejemplo de catálisis enzimàtica


necesita el empleo combinado de cálculos cuánticos y de termodinámica
estadística. Por tanto, en primer lugar es necesario caracterizar los puntos
estacionarios en la SEP en fase gas, en disolución (agua) y teniendo en cuenta
el entorno proteico en la enzima. Se obtienen las estructuras y energías de cada
uno de estos puntos, las correspondientes barreras energéticas y se calcula el
IRC que une los diferentes mínimos desde su correspondiente estructura de
transición. La realización de dinámicas moleculares permitirá también el
cálculo de las energías libres. De esta forma podemos determinar desde un
punto de vista teórico los factores que controlan la reactividad química en este
proceso.
En primer lugar se realiza el estudio en vacío y se explora la SEP para
encontrar todos los mínimos asociados al equilibrio conformacional de los
reactivos (corismato en su formas diequatorial y diaxial) y al producto
(prefenato) y a las estructuras de transición asociadas al cambio conformacional
y al proceso químico de formación y ruptura de los enlaces químicos.
Posteriormente, se lleva a cabo estudio QM/MM de esta reacción química en
presencia de agua y considerando la enzima. En estos dos últimos casos el
número de puntos estacionarios, en particular mínimos, disminuye debido a que
en fases condensadas el movimiento está más restringido y por tanto el número
de grados de libertad disminuye. En la simulación en disolución, la parte QM
está formada por 24 átomos y la parte MM comprende una cavidad de radio 15
À correspondiente a 488 moléculas de agua (Figura 9.15)

515
Índice
Capítulo 9

ée1S A é t w th

A X
core
Corlsmato

Figura 9.15

En tercer lugar se realiza un estudio QM/MM de esta reacción química


teniendo en cuenta la estructura de la enzima completa que se puede obtener en
el PDB (.Bacillus subtilis). El sistema QM está formado por la estructura del
corismato (24 átomos) mientras que la parte MM está formada por 5573
átomos más 224 moléculas de agua. Finalmente se incluye un potencial de
contorno que impida la evaporación de las moléculas de agua de la esfera
resultante. Un total de 3349 átomos de las partes QM y MM, correspondientes a
una esfera de 18 A centrada en la parte QM, se les permite que se muevan
durante el proceso de optimización. Para la localización de los puntos
estacionarios se emplea el programa GRACE. Se calcula la ET y a partir de ella
se puede trazar el IRC, descrito previamente (ver capítulo 6 ,^ subapartado 6.2.2,
página 333) que conduce a los mínimos asociados. Una vez estos perfiles se han
obtenido en las tres situaciones, se pueden calcular el potencial de fuerza media
con el procedimiento de “umbrella sampling” (ver capitulo 1, subapartado
1.8.5.4, página 77). Estos cálculos se pueden realizar en el Programa
516
Índice
Capítulo 9

DYNAMO (Field et al, 2000). En el libro reciente de Field se puede encontrar


una buena recopilación de estas técnicas de cálculo y simulación en sistemas
biológicos (Field, 1999). En la Tabla 9.2 se presentan las distancias del enlace
que se rompe, C-O, y el que se forma, C-C, y el ángulo asociado a la orientación
del grupo hidroxilo obtenidas por optimización QM/MM y el valor promedio,
entre paréntesis, calculado a lo largo de las trayectorias QM/MM.

Disolución acuosa Medio enzimàtico

R TS R TS

dc-o 1.447 (1.445) 1.874 ( 1.775) ' 1.443 (1.453) 1.869 (1.944)

dc-c 3.209 (3.749) 2.149 (2.095) 3.425 (3.047) 2.116 (2.181)

^OH 125.8 (172.8) 122.6 (296.3) 144.0 (187.7) 151.1 (171.5)

T abla 9.2 Distancias de enlace que se rompen (d c.0 en Á), distancias de enlace
que se forman (dc_c en Á), y el ángulo que describe la orientación del grupo
hidroxilo respecto el anillo ((j>oH en grados) obtenidos para R y TS en disolución
acuosa y en medio enzimàtico mediante AM1/CHARMM/GRACE. Entre
paréntesis se muestran los valores medios obtenidos con los cálculos estadísticos
QM/MM de Dynamo.

Una comparación de los valores obtenidos por los dos métodos son similares,
excepto el ángulo, §0H, asociado a la orientación del grupo hidroxilo con
respecto al anillo. Este grupo es mucho más flexible, en particular en disolución
acuosa. Los valores calculados para las energías de activación, AE*, así como los
valores de energías libres de activación, AG*, presentadas en la tabla 9.3, están de
acuerdo con el efecto catalítico de la presencia de las moléculas de agua y de la
enzima. La partición realizada en la metodología QM/MM permite
descomponer la energías de activación, AE*, en tres términos:

AE*=AEQM+ AEmt + AEMM (9.109)

517
Índice
Capítulo 9

donde AEQM es el valor de la energía en vacío relativa a R utilizando las


estructuras soluto/sustrato obtenidas en los cálculos QM/MM, AEint es la energía
de interacción soluto-disolvente o sustrato-enzima relativa a R, y AEMM es la
energía relativa MM respecto a R.

AE* AG* A G * exp

Vacío 5 2 .7 4 8 .9 —

Disolución acuosa 4 4 .1 3 8 .0 2 4 .5

Medio Enzimàtico 3 5 .7 2 9 .3 1 5 .4

Tabla 9.3 Energías de activación (AE*) y energías libres de activación (AG*)


obtenidas mediante los programas CHARMM/GRACE y Dynamo,
respectivamente, y energías libres de activación experimentales (AG*exp). Todos
los valores están en kcal mol'1.

Disolución acuosa
E t AE* AF 1 A E lnt A E ^

R -6411.3 0 .0 0 .0 0 .0 0 .0

TS -6367.2 44.1 (54.9) 36.4 (37.4) 2.4 (2.6) 5.3 (14.9)

Medio enzimàtico
E t AE* AF 1 A E int AEmm
R -3547.9 0 .0 ■0 .0 0 .0 0 .0

TS -3512.2 35.7 (28.2) 38.3 (41.6) -2.5 (-17.8) -0.1 (4.4)

Tabla 9.4 Ex= energías totales correspondientes a las estructuras optimizadas


QM/MM. A EÍ = barreras de energía. AEQMÍ = energía cuántica en vacío otenidas
en vacío utilizando las estructuras del soluto/sustrato optimizadas con los
cálculos QM/MM. AE^ = energía de interacción disolvente-soluto o enzima-
soluto. AEmm = energía de interacción disolvente-disolvente o enzima-enzima-
enzyme. Todos lo valores en kcal mol'1, respecto a reactivos. Entre paréntesis se
muestran los valores medios de los cálculos QM/MM estadísticos obtenidos con
Dynamo.

518
Índice
Capítulo 9

Un análisis de los resultados presentados en la Tabla 9.4 permite analizar la


importancia de cada término. Los valores de AEQM indican que la energía
relativa de la ET es más favorable en el medio acuoso que en el centro activo de
la enzima.
Por lo tanto, el efecto catalítico de la enzima resulta de la energía de
interacción favorable sustrato-enzima, AEint, y de la menor energía de
deformación que tiene lugar en la enzima parar llegar de R a la ET. La
complementariedad de la ET y la forma del centro activo es el primer factor
determinante de la actividad catalítica ya que la enzima estabiliza
preferentemente a la ET mientras que el disolvente interacciona más
fuertemente con R. Por otra parte la reorganización del entorno es menos
costosa en la enzima que en disolución acuosa, alrededor de 5.4 kcal/mol. Estos
dos factores están de acuerdo con el postulado de Pauling presentado
anteriormente: la enzima está diseñada para ser complementaria
geométricamente a la ET que cataliza. Los resultados muestran que tanto los
efectos de reorganización y preorganización son importantes para ayudar a la
enzima para conseguir la catálisis. Así, la enzima enlaza peferentemente el
conformero pseudoaxial del corismato y en segundo lugar reduce la energía
libre de activación de la reacción con relación al proceso en disolución,
proporcionando un entorno que estabiliza preferentemente al ET (Martí et al.,
2000).
El crecimiento exponencial de la potencia de cálculo en las últimas tres
décadas ha producido un impacto profundo en ciencia. La Química no es una
excepción, en este sentido se puede considerar que en cualquiera de sus campos
de actuación se han aprovechado de este espectacular desarrollo.
Tradicionalmente la Química ha sido uná ciencia experimental; ninguna
molécula podía ser investigada hasta que fuera sintetizada o encontrada en la
naturaleza. Sin embargo, hoy es posible estudiar moléculas desconocidas por
métodos computacionales. Así, por ejemplo, Pimentel ya en 1975 indicaba,
citado por Bartlett (Bartlett, 1989): “Con los ordenadores actuales, la estructura
y estabilidad de cualquier compuesto molecular formado por átomos de la tres
519
Índice
Capítulo 9

primeras filas pueden ser calculadas con mejor exactitud que las obtenidas
mediante el experimento. Esta disponibilidad abre al químico muchas
posibilidades que no son accesibles realmente por medidas experimentales.
Intermedios de reacción de vida corta, estados excitados e incluso puntos de
silla de reacción pueden ahora ser conocidos, al menos para moléculas
poliatómicas sencillas”.
Uno de los campos en los que mejor se aprecian las dificultades y, en
consecuencia, la importancia de las técnicas de la Química Teórica y
Computacional es en el estudio de la reactividad química, utilizando el concepto
de SEP y caracterizando la ET asociada a la transformación química. En
ausencia de datos estructurales obtenidos de forma experimental, es difícil de
juzgar si una ET es correcta o no. A pesar del gran valor de la teoría para
obtener información detallada del fenómeno químico, no sólo en el área de la
reactividad química, el papel fundamental de la teoría debe entenderse como
una herramienta complementaria con la experiencia: deben actuar de forma
cooperativa, el objetivo no debe consistir en obtener una respuesta en lugar de
realizar un experimento, sino en conseguir un conocimiento profundo que
permita interpretar los resultados experimentales obtenidos de una forma
adecuada y plantear otros nuevos. Las predicciones teóricas deben ser
contrastadas con datos experimentales y esta cooperación permite diseñar
experimentos útiles, eficientes y efectivos.
Hemos comprobado que reacciones químicas muy complejas pueden
ser descritas de una forma privilegiada caracterizando la ET. El cálculo
mecanocuántico de la ET en modelos de los sistemas reaccionantes puede ser
racionalizado de acuerdo con los principios y procedimientos de la Química-
Física. La relevancia de estos resultados permitirá dilucidar cómo se produce
una reacción química tanto en los sistemas químicos sencillos (moléculas
aisladas en fase gas) y entender la estrategia de la catálisis en sistemas tan
complejos como las enzimas.

520
Índice
Capítulo 9

BIBLIOGRAFIA

Aquellas referencias marcadas con asterisco son considerados como textos


generales sobre el tema.

AGUILAR M.A. y HIDALGO A (1995): J.Phys.Chem. 95, 4293.

ALDER B.J. y WAINWRIGHT T.E.(1956): Proc.Int.Symp. on statiscal


mechanical theory o f transport processes Bruselas, 97-131
ALHAMBRA C., Z.Y. ZHANG y J. GAO (1998): J. Am. Chem. Soc., 120,
3858.

♦ALLEN M.P. y TILDESLEY D.J. (1987): Computer Simulations o f Liquids.


Clarendon:Oxford University Press. London.

ALLINGER N.L., YUH Y.H. y LII J.H. (1989): J. Am. Chem. Soc., I l l , 8551.

ALLINGER N.L., CHEN K. y. LII J.J (1996a): J. Comput. Chem., 17, 642.

ALLINGER N.L., K. CHEN, KATZENELLENBOGEN J.A., WILSON S.R y


ANSTEDA G.M. (1996b): J. Comput. Chem., 17, 747.

ALLURED V.S., KELLY C. y C.R. LANDIS (1991): J. Am. Chem. Soc., 113, 1.
ALLEN L. C. (1981): Annals o f the N.Y. Acad. Sei., 367, 383.
AMARA P. y M.J. FIELD (1998): en P.v.R. SCHLEYER P.v.R., N.L.
ALLINGER, T. CLARK, J. GASTEIGER, P.A. KOLLMAN, H.F.
SCHAEFER III y P.R. SCHREINER (eds.j: The Encyclopedia of
Computational Chemistry, Wiley, Chichester, 1998. pag. 431.
ANDERSEN H.C. (1983): J. Comput. Phys., 52, 24.

ANET F.A.L. y R. ANET (1985): Tetrahedron Lett., 26, 5355.


ARNO M., L.R. DOMINGO y J. ANDRES (1999): J. Org. Chem., 64, 9164.
BADER, R.F.W. Atoms in Molecules: A Quantum Theory. Oxford University
Press. Oxford. 1990.
BARTLETT, R.J. (1989): J. Phys. Chem., 93, 1697.

521
Índice
Capítulo 9

BASH P.A., M.J. FIELD y M. KARPLUS (1987): J. Am. Chem. Soc., 109,
8092.

BAYS J.P. (1992): J. Chem. Educ., 69, 209.

BECKE, A.D. y K.E. EDGECOMBE (1990): J. Chem. Phys., 92, 5397.

BEEMAN D.(1976): J.Comput.Phys. 20, 130.

BERNSTEIN F.C., T.F. KOETZLE, G.J.B. WILLIAMS, E.F: MAYER, J.M.D.


BRICE, J:C: RODGERS; O: KENNARD; T: SHIMANOUCHI y M: TASUMI
(1977): J. Mol. Biol., 112, 535.

BÖTTCHER C.J.F. (1973): en Theory o f Electric Polarization, Vol. I.


Elsevier:Amsterdam

*BOWEN J.P. y. ALLINGERN.L (1991): en LIPKOWITZ K.B. y D.B. BOYD


(eds.): Reviews in Computational Chemistry vol. 2.; New York, VCH Pubi.,
Cap. 3.

BRENEMAN C.M. y WIBERG K.B.(1990): J. Comput. Chem. 11, 361.


BRICKMANN J. T: EXNER, M. KEIL, R. MARHÖFER y G. MOECKEL
(1998): en P.v.R. SCHLEYER P.v.R., N.L. ALLINGER, T. CLARK, J.
GASTEIGER, P.A. KOLLMAN, H.F. SCHAEFER III y P.R. SCHREINER
(eds./' The Encyclopedia o f Computational Chemistry, Wiley, Chichester,
1998. pag. 1678.

BROOKS, B. R.; BRUCCOLERI, R. E.; OLAFSON, B. D.; STATES, D. J.;


SWAMINATHAN, S.; KARPLUS, M. (1983): J. Comp. Chem. 4, 187.

*BURKET U. y N.L. ALLINGER (1982): Molecular Mechanics, Washington


DC, American Chemical Society.

CARBÓ R., L.LEYDA y M. ARNAU (1980): Int. J. Quantum Chem., 17, 1185
CHERFILS J. y JANIN J. (1993): Curr. Opin. Struct. Biol., 3, 265.
CHOTHIA C. (1975): Nature, 254, 304.
CHRISTOFFERSEN R.E. y MAGGIORA G.M. (1969): Chem. Phys. Lett, 3,
419.

522
Índice
Capítulo 9

CLAVERIE P., DAUDEY J.P, LANGLET J., PULLMAN B., PIAZZOLA D. y


HURON M.J. (1978): J. Phys. Chem. 82, 405.

CONTRERAS R. y AIZMAN A., Int. J. Quantum Chem. 1985, 27, 293.

CORNELL W.D., P. CIEPLAK, C.I. BAYLY, I.R. GOULD, K.M. MERZ JR.,
D.M. FERGUSON, D.C. SPELLMEYER, T. FOX, J.W. CALDWELL y P.A.
KOLLMAN (1995): J. Am. Chem. Soc., 117, 5179.
COXON J.M. y A.J. THORPE (1999): J. Am. Chem. Soc., 121, 10955.

CRAMER C.J. y TRUHLAR D.G. (1999): Chem. Rev. 99,

CRAMER R.D., D.E. PATTERSON y J.D. BRUNCE (1988): J. Am. Chem. Soc.,
110, 5959
CUMMINS P.L. y GREADY J.E. (1997): J. Comput. Chem., 12, 1496.
DABROWIAK J.C., P.J. HATALA y M.P. McPIKE (2000): J. Chem. Educ., 11,
397.
DAVIS T.D., G.M MAGGIORA y R.E. CHRISTOFFERSEN (1974): J. Am.
Chem. Soc., 96, 7878.
DESJARLAIS R.L. y J. S. DIXON (1994;.- J. Comput.-Aided Mol. Des., 8, 321.

*DINUR U. y A.T. HAGLER (1991): en LIPKOWITZ K.B. y D.B. BOYD


(eds.): Reviews in Computational Chemistry Vol. 2, New York, VCH Publ.,
Cap. 4.
FERRIN T.E. y T.E. KLEIN (1998): en P.v.R. SCHLEYER P.v.R., N.L.
ALLINGER, T. CLARK, J. GASTEIGER, P.A. KOLLMAN, H.F.
SCHAEFER III y P.R. SCHREINER (eds.;.- The Encyclopedia of
Computational Chemistry, Wiley, Chichester, pag. 463.
FIELD M.J. P.A. BASH y M. KARPLUS (1990): J. Comp. Chem., 11, 700.
*FIELD M.J.(1999): in A Practical Introduction to the Simulation of Molecular
Systems, Cambridge University Press,.
FIELD, M.J, ALBE M., BRET C., PROUST-de MARTIN F. y THOMAS A.
(2000): J. Comput. Chem. 122, 7688.

*FRANKE R. (1984): Theoretical Drug Design Methods, Amsterdam, Elsevier.

523
Índice
Capítulo 9

FREE S.M. y J.W. WILSON (1964): J. Med. Chem., 7, 395


* FRENKEL D. y SMIT B. (1996): Understanding Molecular Simulation.
Academic Press: San Diego.
FREYBERG B.V. y W. BRAUN (1993): J. Comput. Chem., 14, 121.
GAO J. (1992): J. Phys. Chem., 96, 537.
GAO J. (1996): in LIPKOWITZ K.B. y D.B. BOYD (eds.): Reviews in
Computational Chemistry, Vol. 7, Nueva York, VCH Publ., pag. 119.

GOOD A.C.,. SO S y RICHARDS W.G. (1993): J. Med. Chem., 36, 433


GROOTENHUIS P.D., D.C. ROE, P.A. KOLLMAN y I.D. KUNTZ (1994;.- J. ■
Comput._aided Mol. Des., 8 , 731.

GUNDERTOFTE K., J. PALM, I. PETTERSON y A. STAMVIK (1991): J.


Comput. Chem., 12, 200.

GUNDERTOFTE K.', T. LILJEFORS, P.O. NORRBY y I. PETTERSON (1996):


J. Comput. Chem., 17, 429.

HALGREN T.A. (1996): J. Comput. Chem., 17, 490, 520, 553, 587, 616.

HANSCH C. y T. FUJITA (1964): J. Am. Chem. Soc., 86, 1616

*HANSCH C. y A. LEO (1995): Exploring QSAR. Fundamentals and


Applications in Chemistry and Biology, ACS.

fHANSCH C , A. LEO y D. HOEKMAN (1995): Exploring QSAR.


Hydrophobic, Electronic and Steric Constants, ACS.

HEERMANN D.W. (1990): Computer Simulation Methods. Springer-


Verlag:Berlin. 2aEd.

HOCKNEY R.W. y EASTWOOD J.W. (1981): Computer Simulations Using


Particles. McGraw-Hill:New York

HODGKIN E.E. y W.G. RICHARDS (1987): Int. J. Quantum Chem. Quantum


Biol. Symp., 14, 105

HOPFINGER A.J. (1980): J. Am. Chem. Soc., 120, 7196

524
Índice
Capítulo 9

* HOPFINGER A.J. y J.S. TOKARSKI (1997): en CHARIFSON P.S. (ed.):


Practical Application o f Computer-Aided Drug Design, New York, Marcel
Dekker, Cap. 4
HORTON R.M. (1997): BioTechniques, 22, 660.

HWANG M.J., T.P. STOCKFISCH y A.T. HAGLER (1994): J. Am. Chem. Soc.,
116, 2515.

JORGENSEN W.L. y J. TIRADO-RIVES (1988): J. Am. Chem. Soc., 110, 1657


JUFFER H., E.F.F. BOTTA, B.A.M. VAN KEULEN, A. VAN DER PLOEG y
H J.C. BERENDSEN (1991): J. Comput. Phys., 97, 144.
KNOWLWS, J.T.(1987): Science, 236, 1252.
KROKIDIS, X., NOURY, S. y SILVI, B. J. (1997): J. Phys. Chem. A , 101, 7277.
KROKIDIS, X., SILVI, B y ALIKHANI, M.E. (1998): Chem. Phys. Lett, 292, 35

*KUBINYI H. (1998): en SCHELEYER P. von R. (ed): Encyclopedia o f


Computational Chemistry voi 4, Chichester, John Wiley & Sons.

*LANDIS C.R., D.M. ROOT y T. CLEVELAND (1995): en LIPKOWITZ K.B.


y D.B. BOYD (eds.): Reviews in Computational Chemistry Vol. 6, New York,
VCH Pubi., Cap. 2.
LANGRIDGE R., FERRIN T.E., KUNTZ I.D. y CONNOLLY M.L. (1981):
Science, 211, 661.

■*LEACH A.R. (1996): Molecular Modelling. Principles and Applications,


Essex, Longman.
LEE H., DARDEN T.A. y PEDERSEN L.G. (1996): J. Am. Chem. Soc., 118,
• 3946.
LEE J.K. y HOUK K.N.(1997): Science, , 276, 942.
LEVINTHAL A. (1996): Sci. Am., 214, 42.
LIGHTSTONE, F. C.; ZHENG, Y.-J.; BRUICE, T. C. (1998): J. Am. Chem. Soc.
120,5611.

LII J.H. y N.L. ALLINGER (1989a): J. Am. Chem. Soc., I l l , 8566

LII J.H. y N.L. ALLINGER (1989b): J. Am. Chem. Soc., I l l , 8576

Índice
Capítulo 9

LII J.H. y N.L. ALLINGER (1991): J. Comp. Chem., 12, 186


LUZHKOV, V.; WARSHEL, A. (1992): J. Comp. Chem. 13, 199.

McQUARRIE D.A. (1976): Statistical Mechanics. Harper Collins:New York.

*MAITLAND G.C., M. RIGBY, E.B. SMITH y W.A. WAKEHAM (1981):


Intermolecular Forces. Their Origin and Determination, Oxford, Clarendon
Press.

MAPLE J.R., U. D IN U R y A.T. HAGLER (1988): Proc. Natl. Acad. Sci. USA,
69, 5350

MAPLE J.R., M.J. HWANG, T.P. STOCKFISCH, U. DINUR, M. WALDMAN,


C.S. EWIG y A.T. HAGLER (1994): J. Comput. Chem., 15, 162.

MARTÍ, S, J. ANDRÉS, V. MOLINER, E. SILLA, I. TUNÓn y J. BÉRTRAN


(2000): J. Phys. Chem., en prensa.

MARTÍ, S, J. ANDRÉS, V. MOLINER, E. SILLA, I. TUÑÓn y J. BÉRTRAN


(2000): Theor. Chim. Accounts., en prensa.

MARTÍ, S, J. ANDRÉS, V. MOLINER, E. SILLA, I. TUÑÓn, J. BÉRTRAN y


M.J. FIELD (2000) J. Am. Chem. Soc., en prensa.

*MARTIN Y.C. (1998): en KUBINYI H., G. FOLKERS y MARTIN Y.C. (eds.):


3D QSAR in Drug Design: Recent Advances vol. 12/13/14, Dordrecht,
Kluwer/ESCOM, Cap. 1

MARTÍNEZ J.M., PAPPALARDO R.R. y SÁNCHEZ MARCOS E. (1997):


J .Phys.Chem. 101, 4444.
MASERAS F. y MOROKUMA K. (1997): J. Comput. Chem., 16, 1170.

MAYO S.L., B.D. OLAFSON y W.A. GODDARD III (1990): J. Phys. Chem.,
94, 8897

METROPOLIS N., ROSENBLUTH A.W., ROSENBLUTH M.N., TELLER A.N.


y TELLER E. (1953): J.Chem.Phys. 21, 1087.

MEYER A.M. y W.G. RICHARDS (1991): J. Comput. Aid. Mol. Design, 5, 426

526
Índice
Capítulo 9

MILLERO F.J. en Water and Aqueous Solutions. R.A.Home (Ed.). Wiley: New
York (1972), Cap. 13.
MILLAR N. (1996): Scholl Sei. Rev., 78, 55.
MOLINER, V.; TURNER, A. J. y WILLIAMS, I. H. (1997): J. Chem. Soc.
Chem. Comun. 1271.
MONARD G. y MERZ K.M. Jr., (1999) Acc. Chem. Res., 32, 904.
MULHOLLAND A.J., LYNE P. D. y KARPLUS M. (2000): J. Am. Chem. Soc.,
122, 534.
MURREL J.N. y JENKINS A.D., Properties o f Liquids and Solutions. 2aEdL
Wiley:Chichester. (1994). Cap. 1.
NA J., HOUK K.N. y HILVERT D. (1996) J. Am. Chem. Soc., 118, 6462.

NEVINS N., K. CHEN y N.L. ALLINGER (1996a): J. Comput. Chem., 17, 669.

NEVINS N., J.H. LII y N.L. ALLINGER (1996b): J. Comput. Chem., 17, 695.

NEVINS N. y N.L. ALLINGER (1996): J. Comput. Chem., 17, 730,


NOURY, S., KROKIDIS, X., FUSTER, F. y SILVI, B.(1997): Computers and
Chemistry, 23, 597.
OLIVA, M.; SAFONT, V. S.; ANDRÉS, J.y TAPIA, O. (1999): J. Phys. Chem.
A 103, 8725
OPENGL Reference Manual, Addison-Wesley, Reading, MA, 1992,
http://www.sgi.com/Technology/OpenGL/.

OSAWA E. y K.B. LIPKOWITZ (1995): en LIPKOWITZ K.B. and D.B. BOYD


(eds.): Reviews in Computational Chemistry Vol. 6, New York, VCH Publ.,
Ap. 1.

PASCUAL-AHUIR, J.L., E. SILLA y I. TUÑÓN (1994): J. Comp. Chem., 15,


1127
PAULING, L. (1946): Chem. Eng. News 24, 1375.
PAULING, L. (1948): Nature 161, 707.
PAULING, L. (1948): Am. Sei. 36, 51.

527
Índice
Capítulo 9

PEARLMAN D.A., D.A. CASE, J.W. CALDWELL, W.S. ROSS, T.E.


CHEATHAM III, S. DEBOLT, D. FERGUSON, G. SEIBEL y P. KOLLMAN
(1995): Comp. Phys, Comm., 91, 1

*PETTERSON I. y T. LILJEFORS (1996): en LIPKOWITZ K.B. y D.B. BOYD


(eds.): Reviews in Computational Chemistry vol. 9, VCH Publ., New York,
Ch. 4.

PITACH, J.; MOLINER, V.; PASCUAL-AHUIR, J.L., SILLA, E. y TUNÖN, I.


(1996): J. Phys. Chem., 100, 9955

PRANATA J., S. WIERSCHKE y W.L. JORGENSEN (1991): J. Am. Chem.


Soc., 113, 2810
PRIESTLE P. y GREGORY C. Paris, Expererimental Techniques and Data
Banks en Guidebook on Molecular Modeling in Drug Design, N. C. Cohen,
Ed, Academic Press, Nueva York, 1996, pag. 139.

PULLMAN A. en Quantum Theory o f Chemical Reactions, Vol II. R.Daudel et


al. (Eds.). Reidel:Dordrecht (1981) pags. 1-24.

RAPPE A.K., C.J. CASEWIT, K.S. COLWELL, W.A. GODDARD III y W.M.
SKIFF (1992): J. Am. Chem. Soc., 114, 10024, 10035, 10046

*RAPPE A.K. y C.J. CASEWIT (1997): Molecular Mechanics across Chemistry,


Sausalito, University Science Books.

REICHARDT C. (1990): Solvent and Solvent Effects in Organic Chemistry.


VCH:Weinheim.
REUTER N., DEJAEGERE A., MAIGRET B. y KARPLUS M. (2000;.' J. Phys.
Chem. A, 104, 1720.

*RIGBY M., E.B. SMITH, W.A. WAKEHAM y G.C. MAITLAND (1986): The
Forces between Molecules, Oxford, Clarendon Press.
RINALDI, D.; RIVAIL, J. L.; RGUINI, N. J. (1992): J. Comp. Chem. 13, 675.

528
Índice
Capítulo 9

*RIVAIL J.L., RINALDI D. y RUÍZ-LÓPEZ M.F. (1991): en Theoretical and


Computational Models fo r Organic Chemistry. S.J.Formosihno et al. (Eds.),
pag. 79.

* RIVAIL J.L. y RINALDI D. (1996): en Computational Chemistry, Review o f


Current Trends, Vol. 1. J. Leszczynski. World Scientific: New York Cap. 4.

ROOT D.M., C.R. LANDIS y T. CLEVELAND (1993): J. Am. Chem. Soc., 115,
4201
RUIZ-LÓPEZ M.F. y RIVAIL J.L. Combined Quantum and Molecular
Mechanism Approaches to Chemical and Biochemical Reactivity in P.v.R.
Schleyer, N.L. Allmger, T. Clark, J. Gasteiger, P.A. Kollman, H.F. Schaefer
III, P.R. Schreiner (Eds.); The Encyclopedia of Computational Chemistry,
Wiley, Chichester, 1998. Pag. 434
RYCKAERT J.P., CICCOTTI G. y BERENDSEN H.J.C.(1977): J. Comput.
Phys., 23, 327.'
RYCKAERT J.P. (1985): Molec. Phys., 55, 549.
SALVATELLA L., MOKRANE A., CARTIER A., RUIZ-LÓPEZ M. (1998):
Chem. Phys. Letters, 296, 239.
SÁNCHEZ MARCOSE., PAPPALARDO R .R y RINALDI D. (1991) J. Phys.
Chem. 95, 8928.
SCHARLIN, P.; BATTINI, R.; SILLA, E.; TUÑÓN, I. y PASCUAL-AHUIR,
J.L. (1998): IUPACJ., Pure and Applied Chem. 70, 1895
SILLA, E., F. VILLAR, O. NILSSON, J.L. PASCUAL-AHUIR y O. TAPIA
(1990): J. Mol. Graph., 8 , 168.
SILLA E., TUÑÓN I., PASCUAL-AHUIR J.L. (1991): J. Comput. Chem. 12,
1077.
*SILVI, B. y SAVIN, A. (1994): Nature, 371, 683.
SINGH, U. C.; KOLLMAN, P. A. (1986): J. Comp. Chem. 1, 718.
SMITH K.C. y HONIG B. (1994): Proteins, 18, 119.

SPRIK M. y M.L. KLEIN (1988), J. Chem. Phys., 89, 7556

529
Índice
Capítulo 9

STANTON, R. V.; HARTSOUGH, D. S.; MERK, K. M. (1993): J. Phys. Chem.


97, 11868.
STANTON, R. V.; PERÄKYLÄ, M.; BAKOWIES, D.; KOLLMAN, P. (1998): J.
Am. Chem. Soc. 120, 3448.

STONE A. J., The Theory o f Intermolecular Forces. Oxford University Press:


Oxford. (1996). Cap. 9.

STRAATSMA T.P. y J.A. MCCAMMON (1990a): Mol. Sim ul, 5, 18

STRAATSMA T.P. y J.A. MCCAMMON (1990b): Chem. Phys. Lett., 167, 252
SVENSSON M, HUMBEL S., FROESE R.D.J., MATSUBARA T., SIEBER S,
MOROKUMA K. (1996): J. Phys. Chem., 100, 19357.
TAPIA, O.; JOHANNIN, G. (1981): J. Chem. Phys. 75, 3624.
TAPIA, O.; CÁRDENAS, R.; ANDRÉS, J. y COLONNA-CESARI, F. (1988): J.
Am. Chem. Soc. 110, 4046.
TAPIA, O. en Quantum Theory o f Chemical Reactions.. R. Daudel, A. Pullman,
L. Salem y A. Veillard (Eds.). John Wiley & Sons, Londres 1982, Vol. 3,
pag. 7.

*TAPIA, O. en Molecular Interactions. H. R. Atajezak y W. J. Orville-Thomas


(Eds.). John Wiley: Nueva York (1982), Cap. 2.

*TAPIA, O. en Theoretical Evaluation of Solvent Effects, Z.B. Maksic (Ed.).


Theoretical Models of Chemical Bonding. Springer-Verlag: Berlin. 1992

TAPIA O., ANDRÉS J. y STAMATO F.L.M.G. en Solvent Effects and


Chemical Reactivity. O.Tapia y J.Bertrán (Eds.). Kluwer:Dordrecht (1996),
pags. 283-361.
TANTILLO D.J., CHEN J. y HOUK K.H. (1998): Curr. Op. in Chem. Biol., 2,
743
THERY, V.; RINALDI, D.; RIVAIL, J. L.; MAIGRET, B. y FERENCZY, G. G.
(1994): J. Comput. Chem. 15, 269.

* TOMASI J. y PERSICO M. (1994): Chem. Rev. 94, 2027.


TUÑÓN, I.; SILLA, E. y PASCUAL-AHUIR, J.L.(1992): Protein Eng., 5, 715.

530
Índice
Capítulo 9

TUÑÓN, I.; SILLA, E. y PASCUAL-AHUIR, J.L.(1993): J. Am. Chem. Soc.,


115, 2226.
TUÑÓN, I.; MARTINS-COSTA, M. T. C.; MILLOT, C. y RUIZ-LÓPEZ, M. F.
(1995): J. Mol. Model. 1, 196.
TURNER, A. J.; MOLINER, V. y WILLIAMS, I. H. (1999): Phys. Chem. Chem.
Phys. 1, 1323.
van GUNSTEREN, W.F., WEINER P. y WILKISON A. (editors) Computer
Simulation of Biomolecular Systems, Theoretical and Experimental
Applications, Volúmenes 1, 2 y 3, ESCOM, Leiden, 1989, 1993 y 1997.
van GUNSTEREN W.F., Billeter S. R , Eising A.A., Hünenberger P.H., Krüger
P., Mark A.E., Scott W.R.P. y TIRONI I.G. (1996): BIOMOS, Zürich.

VEDANI A. (1988): J. Comp. Chem., 9, 269

VEDANI A. y D.W. HUHTA (1990): J. Am. Chem. Soc., 112, 4759


VENTURINI A., LÓPEZ-ORTIZ F., ALVAREZ J.M. y GONZALEZ J. (1998):
J. Am. Chem. Soc., 120, 1110.

VERLET L. (1967): Phys. Rev. 159, 98.


WARSHEL, A. y LEVITT, M. (1976): J. Mol. Biol. 103, 227.
WARSHEL, A. (1992): Curr. Op. in Struct. Biol. 2, 230.

WEINER S.J., P.A. KOLLMAN, D.A. CASE, U.C. SINGH, C. GHIO, G.


ALAGONA, S. PROFETA JR. y P. WEINER (1984): J. Am. Chem. Soc.,
106, 765
WEI, D. y SALAHUB, D. R. (1994): Chem. Phys. Lett. 224, 291.

WEINER S.J., P.A. KOLLMAN, D.T. NGUYEN y D.A. CASE (1986): J.


Comput. Chem., 7, 230

WILDE R.E. y SINGH S., Statistical Mechanics. Wiley: New York. (1998).

WILLIAMS, I.H. (1993): Chem. Soc. Rev., 22, 277.


WOO T.K., CAVALLO L. y ZIEGLER T. (1998): Theor. Chem. Acta, 100, 307.
XIANG Z., SHI Y. y XU Y. (1995): J. Comput. Chem., 16, 512.
ZEHFUS M. (1993): Proteins, 16, 293.

531
Índice
Capítulo 9

*ZIMMER M. (1995): Chem. Rev. 95, 1629


ZWANZIG R. W. (1954): J. Chem. Phys., 22, 1420.

532
Índice
ÍNDICE DE MATERIAS

3D-QSAR, 456

aceleración, 211
acoplamiento débil, 42
acoplamiento espín-órbita, 46
acoplamiento fuerte, 42
acoplamientos, 40
actividad, 451-460
algoritmo, 143
algoritmo de Verlet, 422-484, 486, 498, 505
algoritmo RODS, 342-344
análisis de agrupaciones, 205
análisis de factores, 203
anarmonicidad, 349, 350, 353
ANO, 400, 406, 412,413, 415
anticonmutador, 7
aproximación de Born-Oppenheimer, 27, 42, 44, 252, 288, 297, 315, 339, 349, 366, 381
aproximación de Born-Von Karman, 230, 250
aproximación de Koopmans, 130
aproximación de gradiente generalizado (GGA), 133, 135, 137
aproximación de la densidad local (LDA), 133-137 136, 137
aproximación orbital, 45
Arrhenius, ecuación de, 313, 325
átomo de hidrógeno, 26 .

balanceado de un programa, 2 1 0 -2 1 1
barrera de energía estándar, 325
barrera de energía potencial, 334
bit, 145
BLYP, 139, 265, 266, 277
BPW91, 277
Brillouin, 227, 228, 230, 233-235, 237-239, 243, 246-248
B3LYP, 260, 265, 266, 277
Born, ecuación de, 474
bosones, 45
bra, 3
bulk, 463, 466, 475, 476, 495
byte, 145
cambio de base, 8

Índice
camino de reacción de mínima energía, 331-334
campo autoconsistente, 88
campo de fuerza AMBER, 429, 439-441, 450
campo de fuerza CFF93, 429, 446
campo de fuerza CHARMM, 429, 442, 510
campo de fuerzas DREIDING, 445
campo de fuerzas MM3, 429-438
campo de fuerzas MM4, 429, 442, 443
campo de fuerzas MMFF94, 447-449, 450
campo de fuerzas OPLS, 429, 441, 442, 448
campo de fuerzas QMFF, 446, 447
campos de fuerza, 428-449
campo de reacción, 465-475
capa abierta, 46, 48
capa cerrada, 46, 48, 89, 110
capacidad calorífica, 488
CASCI, 258
CASPT2, 261, 382, 383, 387-390, 394, 395-397, 399, 400-403, 407-409
CASSCF, 261, 382-384, 386-389, 394-397, 400-403, 405-407, 409, 410, 413
CASSI, 403
CCOC, 25
CCSD, 277
cibotaxis, 462, 463, 465
cicatriz, 352, 363, 372
cluster analysis, 205
codificación binaria de la información, 145, 146
coeficiente de transmisión semiclásico, 344-345
colapso de la función, 2 2
(colisión/choque), 281, 285, 288-294, 301-309
compilador, 146
componente de un vector, 5
computador, 143
configuración diexcitada, 53
configuración electrónica, 53
configuración monoexcitada, 53
configuraciones adaptadas de espín, 48
conjugada de una matriz, 171
conjunto canónico, 87
conjunto de base, 3
conjuntos de base completos, 5
conjuntos de base ortonormales, 4
conmutador, 7
constante de movimiento, 25
constantes de velocidad, 314, 318, 321, 323, 329, 334, 335
control de reacciones químicas, 350, 351
coordenada de reacción intrínseca (IRC), 333,515-516
coordenada distinguida, 342
coordenadas cartesianas ponderadas, 330, 336, 342
coordenadas normales, 336, 340

534
Índice
correlación (matriz), 204
correlación electrónica, 92, 97
correlación-intercambio, 133-140
covarianza (matriz), 204
coupled cluster (CC), 79, 85, 92, 96, 103-106
CPU, 144
cuadratura de Gauss, 189-192

delta de Dirac, 14, 16


delta de Kronecker, 4
densidad electrónica, 107, 108, 112, 113, 115,118, 127, 131, 132 .
densidad de estados (DOS), 237, 248, 249, 327
desarrollo en serie de funciones, 13
descomposición espectral, 18
descriptores, 450-456
determinante, 3, 170
determinante de Slater, 46, 47, 53, 81,103, 110, 111, 128
determinante diexcitado, 48
determinante monoexcitado, 48
determinante no restringido, 48
determinante restringido, 48
determinante secular, 11, 236, 238, 241
DFT, 107, 121-128, 137, 140, 253, 266, 276, 277
diagonalización de matrices, 1 1 , 180
diagrama de ramificación, 49
difusión de Arnold, 351
Dirac, 3, 14, 32, 78, 260
dispersión (scattering), 282-284, 294, 296, 306, 309, 310
distorsión de Jahn-Teller, 242
distosión de Peierls, 242
distribución angular, 309
dureza, 128, 130, 131

ecuación de valores propios, 9, 11, 15, 21


ecuación del movimiento de Heisenberg, 24
ecuación QSAR, 454
ecuación secular, 236
efecto túnel, 344-346
efecto Zeeman, 32
elástico/a (colision/choque), 281, 291, 293, 294
electrones activos, 382, 387, 405
elemento de matriz, 1, 7, 9, 83
elementos de matriz, 54
embedding, 220, 264
energía de activación, 313, 325
energía de correlación, 127, 137
energía de Gibbs estándar de activación, 322, 335, 336, 343
energía de intercambio, 133
energía potencial adiabática, 342

535
Índice
energía potencial clásica, 342
energía umbral cuántica, 346
entalpia estándar de activación, 322
entropía estándar de activación, 323
ergódico, 352
espacio de fase, 351-353, 372, 375
espectros caóticos, 357, 359, 370, 373
espectroscopia por bombeo de emisión estimulada, 350, 355-357, 359-361, 363, 364
espectroscopia por fotoextracción de electrones, 350, 356, 364, 365, 367
espectroscopia vibracional, 349
espín, 32, 85, 111, 140
espinorbital, 45
espinorbital generalizado, 46
espinorbital restringido, 46
espinorbitales no restringidos, 46
espinorbitales ocupados, 48
espinorbitales virtuales, 48
estadística de Bose-Einstein, 45
estadística de Fermi-Dirac, 45
estadística de niveles, 373
estadística de niveles (distribución de Porter-Thomas) 359
estadística de niveles (distribución de Wigner) 359
estado, 2 0
estado del vacío, 53
estado de transición, 314, 382
estados de transición generalizados, 333-336
estado estacionario, 25
estado estándar, 324
estado excitado, 36, 399, 400, 402, 405, 407
estados degenerados, 39
estructura de bandas, 233, 242, 249
estructura de transición, 519-526
estructuras lógicas de algoritmos, 147
eteno, 383, 399, 401, 405-407
experimento de Stern-Gerlach, 32

factor analysis, 203


factor de campo de reacción, 468, 469
factor de simetría, 334
factor pre-exponencial, 313, 326
factor g de Lándé, 32
FCI (interacción de configuración completa), 48, 53, 381, 412
Fermi, 232, 234, 235, 247, 248
fermiones, 45
formulación de Levy restringida, 121, 122
FORTRAN, 143-159, 207, 209, 213
Fourier, 247, 370
fuerza de oscilador, 402-407
funciones, 168

536
Índice
función antisimétrica, 45
función de correlación, 368, 369
función de estado electrónica, 43
función de estado exacta, 48
función densidad, 107, 116
función de Fukui, 128-132
función de onda, 82
función de onda exacta, 83
función de partición, 317, 334, 339-342
función propia, 15, 17, 21
función simétrica, 45
función de Bloch, 230, 228, 231, 238, 240, 245
funcional de la densidad, 120, 124, 483, 509
funcional de la energía, 250
funciones de matrices, 12
funciones impares, 19
funciones ortonormales, 14
funciones pares, 19
funciones propias de espín, 33

gap, 254, 262


Goudsmit, 32

haces moleculares, 282-284


Hamilton (ecs. de),hamiltoniano/a, 288, 299
hamiltoniano electrónico, 43
hardware, 144
Hartree-Fock, 79-97, 102, 114, 116, 124-128, 138, 217, 244-247, 253-260, 266, 268, 272,
470, 472
Heisernberg, 23, 24, 44, 256, 257, 291
hessiano, 194, 198
hipersuperfície de energía potencial, 43
HSEP, 43, 44
hueco de Coulomb, 46, 47, 113, 114, 115, 116
hueco de Fermi, 47, 113, 115, 116
hueco de correlación-intercambio, 112, 113, 114, 118

ket, 3

índice de Miller, 226


inelástico/a (colisión/choque), 281, 291, 292
instrucciones de asignación aritmética, 152
instrucciones de declaración, 151
instrucciones de ejecución condicional (IF), 155
instrucciones de ejecución repetitiva (DO), 156
instrucciones de entrada/salida (READ, WRITE), 154, 160, 162, 165
instrucciones de transferencia de control, 156
integración numérica, 183
integral de acción, 346

537
Índice
interacción de configuraciones, 79, 82, 85, 92, 95, 103, 104, 217
interacciones intermoleculares, 418. 423
interpretación de Copenhage, 21
inversión dé matrices, 171, 175

jellium, 231
jerarquía del caos, 352

lectura y escritura de ficheros en disco, 164


lectura y escritura de matrices y vectores, 159
Lennard-Jones, 424, 425, 434, 435, 442, 446
ley de Ahmdahl, 212
librerías de subrutinas y funciones, 169
longitud de un vector, 4
LS-CASPT2, 394, 395, 408

Madelung, 221
magnetón de Bohr, 32
matrices en FORTRAN, 158-161
matriz, 1
matriz adjunta, 2
matriz columna, 1
matriz cuadrada, 1
matriz de constantes de fuerza proyectada, 338, 343
matriz de Fock, 89, 91
matriz densidad, 90, 107, 109, 111, 117
matriz diagonal, 2, 9, 11
matriz hermítica, 2, 110, 172
matriz Hessiana 194
matriz inversa, 2
matriz ortogonal, 2, 172
matriz ragular, 172
matriz simétrica, 2, 172
matriz transpuesta, 2
matriz unidad, 2
matriz unitaria, 2, 8 , 9, 11, 172
Maxwell-Boltzmann, 285-287, 315, 345
Mclver y Komornicki, condiciones de, 315
MCSCF, 382-386, 412
mecánica clásica, 351, 357, 364, 375
mecánica molecular, 427- 451
media, 204-205
medida, 2 0 , 21
memoria central, 144
memoria compartida, 2 1 2
memoria distribuida, 2 1 2
método de Beeman, 493
método de Car-Parinello, 252, 277

538
Índice
__

método de eliminación de Gauss, 176


método de extended Hückel, 238, 239, 244
método de Hückel, 235
método de Kohn y Sham, 124
método de Jacobi, 181
método de los trapecios, 184
método de Monte Cario, 72, 192, 256, 307, 484- 487
método de Monte Carlo-Metropolis, 465-487
método de ortogonalización de Gram-Schmidt, 175
método de rotaciones, 12
método de Runge-Kutta, 187
método de Simpson, 186
método DVR, 351, 371
método variacional, 35, 81, 238
minimización, Método de 1gradiente, 195
minimización, Método de Newton-Raphson, 196
minimización, Método Simplex, 199
minimización, Métodos basados en el gradiente y Hessiano, 200
minimización, Métodos de interpolación, 195
minimización, Simmulated Annealing, 201
modelo de cluster, 219
modelo de sistema, 20
módulo de un vector, 4
modelo de slab, 254, 263
modelo periódico, 225
modos locales, 350
modos normales, 349, 358
modos normales generalizados, 337
MOLCAS, 383, 389, 402, 408, 411
momento angular, 27
momento angular, funciones propias, 31
momento angular, valores propios, 29
montar (“linear”) un programa, 146
MS-CASPT2, 396, 397, 399, 400, 403, 407, 408
Mulliken 90, 266
multiplicación de matrices, 171
multiplicador indeterminado de Lagrange, 36
Moller-Plesset, 102, 107

norma de un vector, 4
normalización intermedia, 38
notación de Dirac, 3, 15

observable, 2 0 , 21
operador, 6 , 7, 15
operador adjunto, 7, 17
operador antihermítico, 16
operador antisimetrizador, 20, 45, 47, 49
operador de aniquilación, 20, 51

539
Índice
operador de ascenso, 29
operador de cluster, 104
operador de Coulomb, 89
operador de creación, 2 0 , 51
operador de descenso, 29
operador de escalera, 256
operador de excitación, 53
operador de Fock, 87, 8 8 , 89, 90, 97, 102, 127, 230
operador de intercambio, 20, 89
operador de Kohn-Sham, 127, 230
operador de paridad, 19
operador de perturbación, 38
operador de proyección, 18
operador efectivo, 88
operador Hamiltoniano, 82
operador Hamiltoniano molecular, 42
operador Hermítico, 8 , 9, 15, 16
operador idempotente, 18
operador lineal, 6
operador local, 16
operador no local, 16
operador normal, 16
operadores de espín, 33
operadores en segunda cuantización, 54
operadores escalera, 29
optimización de funciones, 194
optimización de programas, 206-209
orbital, 81
orbital activo, 91, 382, 387, 389, 405, 406
orbital cristalino, 245
orbital de Bloch, 240, 245, 247, 258
orbital de valencia, 398, 407
orbitales moleculares, 236, 381, 384-387, 397, 399, 401, 411
orbitales naturales, 388, 405, 412
orbitales Rydberg, 398, 405
orbital espacial, 46
orbital Kohn-Sham, 126, 127, 135
órbita periódica, 352, 361-364, 372, 375
ordenador, 143
ortogonalización canónica, 10
ortogonalización de Schmidt, 10
ortogonalización de vectores, 10
ortogonalización jerárquica, 10
ortogonalización simétrica, 10
oscilador anarmónico, 38
oscilador armónico, 26, 38

paquetes de onda, 351, 353, 356, 357, 359, 365, 368-370, 372-375
paralelización, 213-215

540
Índice
paralelización de programas, 209-214
parametrización, 437, 438, 443, 444, 4445, 447
parámetro variacional, 35
partículas indistinguibles, 44
Pauli, 52, 113, 114
PCM, 472, 474
periférico de almacenamiento, 144
periférico de entrada/salida, 144
polarización, 464-472
poliada, 354, 358-360, 364
POLYRATE, 347
potencial químico, 128, 130, 131
principio de antisimetría, 45, 47, 50, 52
principio de Ehrenfest, 370
principio de exclusión, 47, 51, 52
principio de Franck-Condon, 356, 366
principio de indeterminación, 23, 44
principio de superposición, 19, 21, 38
principio variacional, 34, 119, 120, 121, 122
probabilidad de transmisión cuántica, 345-346
probabilidad de supervivencia, 364, 368, 375
proceso de Markov, 485
procesador dueño, 2 1 0
procesador esclavo, 2 1 0
producto de matrices, 1
producto de operadores, 6 , 7
producto diádico, 5
producto escalar, 4
producto escalar de funciones, 15
producto interno, 13, 15
producto por un escalar de una matriz, 171
productos de Hartree, 46
programa, 146
programación estructurada 148
programa principal, 165
proyector de espín, 50
punto silla, 315

QSAR, 451-460

recurrencias, 364, 370


red de Bravais, 226
regla de la suma, 114
reglas de Hund, 258
reglas de Slater, 87
reglas de Slater-Condon, 54, 83, 84, 92, 93
régimen caótico, 351, 352, 359, 361, 364, 373, 375
relación de completitud, 5
relaciones de anticonmutación, 51

541
Índice
representación de un operador, 6 -8 , 15
representación de un vector, 4
resolución de la identidad, 5, 8 , 11
resonancia, 351, 354, 358, 363, 364, 373, 374
resonancia Darling-Dennison, 358
resonancia de Fermi, 354
resonancia no lineal, 354
RHF, 8 8 , 89, 91, 383, 384, 387
Roothaan, 89, 90

SCRF, 470-474
sección eficaz, 285, 286
sección eficaz diferencial (DCS), 284, 285, 288, 290, 294, 309
segunda cuantización, 50, 384
series de Clebsch-Gordan, 34
series de Fourier, 13
series de Taylor, 38
singulete, 48, 50
sistema, 20
sistema secular, 11
sistemas de dos niveles, 40
size-extensive, 387 •
size-consistency, 94, 95, 96, 103
sobretono, 349-357, 364
software, 143
speed-up, 211
subprogramas, 165-169
subrutinas, 166-168
suma y resta de matrices, 171
superelastico/a (colision/choque), 295
superficie adiabática, 44
superficie de energia potencial (PES, SEP), 288, 296, 297, 309, 371, 505-508, 513-518
superficie de división, 315, 333
suma clásica de estados, 326
superficie diabàtica, 44

tensor de inercia, 338


teorema de Bloch, 228, 229
teorema de Rrillouin, 86
teorema de Hellmann-Feynman, 26, 138, 252
teoría de Fano, 374
teoría del funcional de la densidad, 107, 217
teorema de Hohenberg y Kohn, 119, 120,121, 122
teorema del hipervirial, 25
teorema de Koopmans, 8 8 , 270
teorema del virial, 26
teorema KAM, 351
teoría del estado de transición, 281, 313-348
teoría del estado de transición canónica, 315-318

542
Índice
teoría del estado de transición convencional, 314-330
teoría del estado de transición, deducción dinámica, 318-321
teoría del estado de transición, formulación termodinámica, 321-324
teoría del estado de transición, hipótesis fundamental, 315
teoría del estado de transición, microcanónica, 326-330
teoría del estado de transición variacional, 330-344
teoría de perturbaciones, 37, 85, 96, 97, 103, 382-384, 388, 389, 393, 395, 396, 401
teorema electrostático, 27
término cruzado, 436
término de flexión, 431
término de flexión fuera del plano, 433
término de tensión, 433, 437
término de torsión, 432
término, electrostático, 422, 425, 435, 436, 447
transferencia intramolecular de energía, 350, 353, 354, 358, 359
transformación de Lowdin, 89
transformación de semejanza, 174
transformada de Fourier, 247
transición orden-caos, 359
transposición de matrices, 172
trayectorias clásicas, 282, 285, 297, 298, 307, 308
traza de una matriz, 2, 8
triplete, 50

Uhlenbeck, 32

valores y vectores propios de una matriz, 173, 180


valor promedio, 17, 21
valores propios, 9, 11, 15, 17, 21
van der Waals, 417, 434, 440-443, 447, 448
variable dinámica, 20
variables indexadas, 158
variaciones lineales, 35
varianza, 203-204
vector, 1
vector adjunto, 2
vector de transición, 332
vectores, 4, 159
vectores propios, 9,11
velocidad de la reacción, 313

543
Índice

You might also like