Dinˆamica Estoc´astica

e
Irreversibilidade
Dinˆamica Estoc´astica e
Irreversibilidade
Tˆania Tom´e e
M´ario Jos´e de Oliveira
A
Maria Roza
Wilson Tom´e
Natalina Bacchi de Oliveira
Jo˜ ao Batista de Oliveira
e
Pedro Tom´e de Oliveira
Sum
´
ario
1. Vari´aveis Aleat´ orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1 Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Vari´avel Aleat´ oria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Vari´avel Aleat´ oria Cont´ınua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 M´edias e Momentos de uma Distribui¸ c˜ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Fun¸ c˜ao Caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Fun¸ c˜ao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7 Mudan¸ ca de Vari´avel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.8 Distribui¸ c˜ao Conjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2. Seq¨ uˆencia de Vari´aveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1 Soma de Vari´aveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Lei dos Grandes N´ umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Passeio Aleat´ orio Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Passeio Aleat´ orio Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3. Equa¸ c˜ao de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10

Dinˆamica Estoc´astica e Irreversibilidade
3.2 Distribui¸ c˜ao de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3 Conjunto de Equa¸ c˜oes de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Evolu¸ c˜ao Temporal dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Simula¸ c˜ao do Movimento Aleat´ orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 Equa¸ c˜ao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4. Equa¸ c˜ao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1 Equa¸ c˜ao em uma Vari´avel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 Solu¸ c˜ao Estacion´aria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Operador de Evolu¸ c˜ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Equa¸ c˜ao Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.5 Operador Hermitiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.6 Equa¸ c˜ao em V´ arias Vari´aveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.7 M´etodo Estoc´astico de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5. Cadeias de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1 Processos Estoc´asticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Matriz Estoc´astica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3 Teorema de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4 M´etodo Alg´ebrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Reversibilidade Microsc´ opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.7 Modelo de Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.8 Passeio Aleat´ orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.9 Recorrˆencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.10 Passeio Aleat´ orio Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6. Equa¸ c˜ao Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.1 Introdu¸ c˜ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 Matriz de Evolu¸ c˜ao W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.3 Comportamento para Tempos Longos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.4 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.5 M´etodo Alg´ebrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.6 Reversibilidade Microsc´ opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.7 Passeio Aleat´ orio Generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.8 Rea¸ c˜oes Qu´ımicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.9 M´etodo da Fun¸ c˜ao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.10 Expans˜ ao em S´erie Temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.11 Expans˜ ao Perturbativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

11 Sum´ario
7. M´etodo de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1 Introdu¸ c˜ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Algoritmo de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3 Oscilador Harmˆonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.4 Modelo de Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.5 Sistema Cl´ assico de Mol´eculas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.6 Fun¸ c˜ao de Correla¸ c˜ao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8. Transi¸ c˜oes de Fase e Criticalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.1 Introdu¸ c˜ao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.2 Quebra Espontˆ anea de Simetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.3 Modelo Cin´etico de Bragg-Williams. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.4 Teoria Cin´etica de Landau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.5 Teoria de Ornstein-Zernike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.6 Expoentes Cr´ıticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
1
Vari
´
aveis Aleat
´
orias
1.1 PROBABILIDADE
Um objeto pesado abandonado a alguns metros do solo, a partir do repouso,
atingir´a o ch˜ao num ponto situado verticalmente abaixo do ponto onde foi solto.
Repetindo esse ensaio, n˜ao importa quantas vezes, constataremos que o objeto
cair´ a sempre no mesmo ponto. Por outro lado, se considerarmos um objeto
leve como uma pequena folha de papel no lugar do objeto pesado, e repetindo
in´ umeras vezes o mesmo ensaio, veremos que a folha atingir´a o solo em pontos
distintos, apesar de ser solta do mesmo ponto, e mesmo na ausˆencia completa
de ventos. A forma planar da folha associada ao seu pequeno peso aumentam
consideravelmente o atrito com o ar, tornando o movimento da folha irregular.
O primeiro ensaio, com o objeto pesado, ´e um fenˆomeno previs´ıvel, enquanto
que o segundo, com a folha de papel, ´e um fenˆomeno aleat´ orio.
A princ´ıpio poder´ıamos pensar que um fenˆomeno aleat´ orio, como a queda
de folhas de papel descrita acima, n˜ao possui uma regularidade e portanto n˜ao
seria pass´ıvel de um estudo sistem´atico. Entretanto, ap´os uma reflex˜ao mais
detalhada, verificamos que ´e poss´ıvel, de fato, observar uma regularidade em
fenˆomenos aleat´ orios. Examinando a queda de uma folha repetidas vezes ou,
equivalentemente, observando a queda seq¨ uencial de in´ umeras folhas idˆenticas,
14

Dinˆamica Estoc´astica e Irreversibilidade
podemos perceber que o monte de folhas ca´ıdas no ch˜ao adquire uma certa
forma. Considerando uma outra seq¨ uˆencia de folhas que caem, cons- tataremos
que a forma do novo monte ser´a idˆentica `a anterior, desde que o n´ umero de
folhas seja suficientemente grande. Qualquer seq¨ uˆencia de folhas que caem ao
ch˜ao, a partir de um mesmo ponto, dar´ a origem a montes de folhas com a mesma
forma.
´
E essa a regularidade que se pode observar nesse fenˆomeno aleat´ orio.
A teoria das probabilidades e seus desdobramentos, a teoria dos processos
estoc´asticos e a dinˆ amica estoc´astica, constituem a linguagem apropriada para
a descri¸ c˜ao dos fenˆomenos aleat´ orios. Elas est˜ ao apoiadas em dois conceitos
fundamentais: o conceito de probabilidade e o conceito de vari´avel aleat´ oria
que ser´a discutido a partir da pr´oxima se¸ c˜ao. A defini¸ c˜ao de probabilidade se
faz construindo o conjunto de todos os poss´ıveis resultados de uma determinada
experiˆencia, agrupando-os em subconjuntos mutuamente excludentes. Se a cada
um desses subconjuntos for atribu´ıdo um n´ umero real n˜ao negativo tal que a
soma deles seja igual a unidade, ent˜ ao estaremos diante de uma distribui¸ c˜ao de
probabilidades definida sobre o conjunto dos poss´ıveis resultados. Ressaltamos
que essa defini¸ c˜ao ´e muito geral e portanto insuficiente para a determina¸ c˜ao da
probabilidade associada a casos espec´ıficos. A determina¸ c˜ao da distribui¸ c˜ao de
probabilidades que se deve atribuir aos resultados de uma experiˆencia espec´ıfica
constitui um problema fundamental que deve ser resolvido pela constru¸ c˜ao de
uma teoria ou de um modelo que descreva a experiˆencia.
O conceito de probabilidade, assim como o de qualquer outra grandeza f´ısica,
possui dois aspectos: um relativo `a sua defini¸ c˜ao e o outro `a sua interpreta¸ c˜ ao.
Para a maioria das grandezas f´ısicas, os dois aspectos est˜ ao diretamente re-
lacionados. Entretanto, isso n˜ao acontece com a no¸ c˜ao de probabilidade. A
interpreta¸ c˜ao de probabilidade n˜ao segue diretamente de sua defini¸ c˜ao. Inter-
pretamos a probabilidade de um certo resultado como a freq¨ uˆencia de ocorrˆencia
desse resultado (interpreta¸ c˜ao freq¨ uencial). Retomando o exemplo das folhas
que caem ao ch˜ao, suponha que tenhamos tra¸ cado no solo um quadriculado
e determinado o n´ umero de folhas ca´ıdas em cada quadrado utilizando uma
seq¨ uˆencia grande de folhas. A probabilidade de que uma folha de papel caia
dentro de um determinado quadrado ´e interpretada como sendo igual `a raz˜ ao
entre o n´ umero de folhas ca´ıdas nesse quadrado e o n´ umero total de folhas
ca´ıdas.

15 Vari´aveis Aleat´orias
1.2 VARI
´
AVEL ALEAT
´
ORIA DISCRETA
Considere uma vari´avel num´erica ℓ que assume os valores inteiros e suponha que
a cada valor de ℓ esteja associado um n´ umero real p

, n˜ao negativo,
p

≥ 0, (1.1)
tal que


p

= 1. (1.2)
Caso isso aconte¸ ca, ℓ ser´a uma vari´avel aleat´ oria discreta e p

ser´a a distribui¸ c˜ao
de probabilidade da vari´avel aleat´ oria ℓ.
Exemplo 1. Distribui¸ c˜ao binomial:
p

= (
N

)a

b
N−ℓ
, (1.3)
onde a ´e um parˆ ametro tal que 0 < a < 1, b = 1 −a e
(
N

) =
N!
ℓ!(n −ℓ)!
. (1.4)
A vari´avel aleat´ oria ℓ toma os valores 0, 1, 2, ..., N −1, N. Note que
N

ℓ=0
p

= (a +b)
N
= 1. (1.5)
Exemplo 2. Distribui¸ c˜ao de Poisson:
p

= e
−α
α

ℓ!
, (1.6)
onde α ´e um parˆ ametro tal que α > 0. A vari´avel aleat´ oria ℓ toma os valores
0, 1, 2, 3, .... Note que

ℓ=0
p

= e
−α

ℓ=0
α

ℓ!
= 1. (1.7)
1.3 VARI
´
AVEL ALEAT
´
ORIA CONT
´
INUA
Uma vari´avel aleat´ oria cont´ınua x pode assumir qualquer valor sobre a reta
real. Nesse caso associamos uma probabilidade a cada intervalo da reta. A
probabilidade de que vari´avel aleat´ oria x esteja no intervalo [a, b] ´e
_
b
a
ρ(x)dx, (1.8)
16

Dinˆamica Estoc´astica e Irreversibilidade
onde ρ(x) ´e a densidade de probabilidade, que deve ter as propriedades
ρ(x) ≥ 0 (1.9)
e _

−∞
ρ(x)dx = 1. (1.10)
A distribui¸ c˜ao acumulada de probabilidades F(x) ´e definida por
F(x) =
_
x
−∞
ρ(y)dy (1.11)
e ´e uma fun¸ c˜ao monotˆonica crescente.
Exemplo 3. Distribui¸ c˜ao gaussiana:
ρ(x) =
1

2πσ
2
exp(−
x
2

2
). (1.12)
Exemplo 4. Distribui¸ c˜ao de Laplace:
ρ(x) =
1

exp(−
[x[
α
). (1.13)
Recorrendo ao uso da fun¸ c˜ao delta de Dirac, uma distribui¸ c˜ao discreta de
probabilidades p

pode ser descrita pela seguinte densidade de probabilidade:
ρ(x) =


p

δ(x −ℓ). (1.14)
Com esse recurso, a nota¸ c˜ao empregada para vari´aveis aleat´ orias cont´ınuas pode
ser usada tamb´em para vari´aveis discretas, quando for conveniente.
1.4 M
´
EDIAS E MOMENTOS DE UMA DISTRIBUIC¸
˜
AO
Considere uma fun¸ c˜ao f(x) e seja ρ(x) a densidade de probabilidades associada
a x. A m´edia ¸f(x)) ´e definida por
¸f(x)) =
_
f(x)ρ(x)dx. (1.15)
Os momentos µ
n
s˜ ao definidos por
µ
n
= ¸x
n
) =
_
x
n
ρ(x)dx. (1.16)

17 Vari´aveis Aleat´orias
O primeiro momento µ
1
´e simplesmente a m´edia de x. A dispers˜ao ou variˆancia
σ
2
´e definida por
σ
2
= ¸(x −¸x))
2
) (1.17)
e ´e sempre n˜ao negativa.
´
E f´acil ver que
σ
2
= ¸x
2
) −¸x)
2
= µ
2
−µ
2
1
, (1.18)
bastando para isso usar a seguinte propriedade da m´edia
¸af(x) +bg(x)) = a¸f(x)) +b¸g(x)), (1.19)
onde a e b s˜ ao constantes.
Exemplo 5. Momentos da distribui¸ c˜ao gaussiana. Considere a seguinte iden-
tidade:
_

−∞
exp(−
αx
2
2
)dx =

2πα
−1/2
, (1.20)
v´ alida para α > 0. Se derivarmos com rela¸ c˜ao a α ambos os membros dessa
express˜ao m vezes, obtemos:
_

−∞
x
2m
exp(−
αx
2
2
)dx = 1 3 5 ... (2m−1)

2πα
−1/2
α
−2m
. (1.21)
Dividindo ambos os membros por

2πα
−1/2
e fazendo as substitui¸ c˜oes α
−1
= σ
2
e 2m = n, obtemos:
µ
n
=
1

2πσ
2
_

−∞
x
n
exp(−
x
2

2
)dx = 1 3 5 ... (n −1)σ
n
, (1.22)
v´ alida para n par. Em particular
µ
2
= σ
2
, µ
4
= 3σ
4
, µ
6
= 15σ
6
. (1.23)
Os momentos ´ımpares da distribui¸ c˜ao gaussiana s˜ ao nulos.
1.5 FUNC¸
˜
AO CARACTER
´
ISTICA
A fun¸ c˜ao caracter´ıstica g(k) de uma vari´avel aleat´ oria x ´e definida como a
transformada de Fourier da densidade de probabilidade associada a x, isto ´e,
g(k) =
_
ρ(x)e
ikx
dx = ¸e
ikx
). (1.24)
18

Dinˆamica Estoc´astica e Irreversibilidade
Ela possui as seguintes propriedades:
g(0) = 1 (1.25)
e
[g(k)[ ≤ 1. (1.26)
Exemplo 6. A Fun¸ c˜ao caracter´ıstica da distribui¸ c˜ao gaussiana ´e tamb´em
uma fun¸ c˜ao gaussiana e ´e dada por
g(k) = exp(−
σ
2
k
2
2
). (1.27)
A fun¸ c˜ao caracter´ıstica ´e ´ util na obten¸ c˜ao dos momentos µ
n
, pois o desen-
volvimento de g(k) em s´erie de Taylor, quando existe, nos d´a
g(k) = 1 +

n=1
(ik)
n
n!
µ
n
. (1.28)
Essa express˜ao se obt´em diretamente de (1.24) atrav´es do desenvolvimento de
e
ikx
em potˆencias de x. A fun¸ c˜ao caracter´ıstica sempre existe. Entretanto,
nem sempre ´e poss´ıvel desenvolvˆe-la em s´erie de Taylor, o que significa que a
distribui¸ c˜ao de probabilidade n˜ao possui momentos.
Exemplo 7. A distribui¸ c˜ao de probabilidades de Lorentz
ρ(x) =
a
π(a
2
+x
2
)
, (1.29)
onde a > 0, possui como fun¸ c˜ao caracter´ıstica a seguinte fun¸ c˜ao:
g(k) = exp(−a[k[). (1.30)
Est´a claro que g(k) n˜ao ´e diferenci´avel em k = 0 e, portanto, n˜ao possui desen-
volvimento em s´erie de Taylor.
A fun¸ c˜ao caracter´ıstica tamb´em serve para gerar os cumulantes κ
n
que s˜ ao
definidos atrav´es de
g(k) = exp¦

n=1
(ik)
n
n!
κ
n
¦. (1.31)

19 Vari´aveis Aleat´orias
Tomando o logaritmo do lado direito de (1.28), desenvolvendo-a em s´erie de
Taylor e comparando com o lado direito de (1.31), obtemos as seguintes rela¸ c˜oes
entre os cumulantes e os momentos:
κ
1
= µ
1
, (1.32)
κ
2
= µ
2
−µ
2
1
, (1.33)
κ
3
= µ
3
−3µ
2
µ
1
+ 2µ
3
1
, (1.34)
κ
4
= µ
4
−4µ
3
µ
1
−3µ
2
2
+ 12µ
2
µ
2
1
−6µ
4
1
(1.35)
etc. Comparando (1.27) e (1.31), vemos que todos os cumulantes da distribui¸ c˜ao
gaussiana, a partir do terceiro, s˜ ao nulos.
Considere o caso de uma vari´avel aleat´ oria discreta que toma os valores x

.
Ent˜ ao
ρ(x) =


p

δ(x −x

) (1.36)
de onde conclu´ımos que a fun¸ c˜ao caracter´ıstica de uma vari´avel discreta ´e dada
por
g(k) =


p

e
ikx

. (1.37)
Exemplo 8. Uma vari´avel aleat´ oria discreta assume os valores +1 e −1 com
probabilidades iguais a 1/2. Usando a nota¸ c˜ao acima, temos x
0
= 1 e x
1
= −1
e p
0
= p
1
= 1/2 de modo que a fun¸ c˜ao caracter´ıstica ´e
g(k) = cos k. (1.38)
A obten¸ c˜ao de ρ(x) a partir de g(k) se faz tomando-se a antitransformada
de Fourier, isto ´e,
ρ(x) =
1

_
g(k)e
−ikx
dk. (1.39)
1.6 FUNC¸
˜
AO GERATRIZ
Para distribui¸ c˜oes de probabilidades correspondentes a vari´aveis discretas que
tomam os valores 0, 1, 2, ..., muitas vezes ´e conveniente o uso da fun¸ c˜ao geratriz
G(z) definida por
G(z) =

ℓ=0
p

z

. (1.40)
20

Dinˆamica Estoc´astica e Irreversibilidade
A s´erie ´e convergente pelo menos para −1 ≤ z ≤ 1. Derivando sucessivamente
a fun¸ c˜ao geratriz, vemos que ela possui as seguintes propriedades:
G

(1) =

ℓ=1
ℓp

= ¸ℓ) (1.41)
e
G
′′
(1) =

ℓ=2
ℓ(ℓ −1)p

= ¸ℓ
2
) −¸ℓ). (1.42)
Assim os momentos podem ser calculados a partir das derivadas da fun¸ c˜ao
geratriz calculadas em z = 1.
Exemplo 9. A fun¸ c˜ao geratriz para a distribui¸ c˜ao binomial, equa¸ c˜ao (1.3), ´e
dada por
G(z) =
N

ℓ=0
(
N

)a

b
N−ℓ
z

= (az +b)
N
. (1.43)
Determinando as derivadas G

(z) e G
′′
(z) e usando as f´ormulas (1.41) e (1.42)
obtemos a m´edia
¸ℓ) = Na, (1.44)
e a variˆancia
¸ℓ
2
) −¸ℓ)
2
= Nab, (1.45)
da distribui¸ c˜ao binomial.
1.7 MUDANC¸A DE VARI
´
AVEL
Considere duas vari´aveis aleat´ orias x e y tais que y = f(x). Suponha que a
densidade de probabilidade da vari´avel x seja ρ
1
(x). Como obter a densidade
de probabilidade ρ
2
(y) da vari´avel y? A resposta a essa pergunta ´e dada pela
f´ormula:
ρ
2
(y) =
_
δ(y −f(x))ρ
1
(x)dx, (1.46)
cuja demontra¸ c˜ao ser´a feita a seguir.
Seja g
2
(k) a fun¸ c˜ao caracter´ıstica correspondente `a vari´avel y. Como x e y
est˜ ao ligados por y = f(x), ent˜ ao podemos escrever:
g
2
(k) = ¸exp(iky)) = ¸exp¦ikf(x)¦) =
_
e
ikf(x)
ρ
1
(x)dx. (1.47)

21 Vari´aveis Aleat´orias
Por outro lado,
ρ
2
(y) =
1

_
e
−iky
g
2
(k)dk, (1.48)
de onde obtemos:
ρ
2
(y) =
1

_ _
e
−ik[y−f(x)]
ρ
1
(x)dkdx. (1.49)
Usando a representa¸ c˜ao
δ(x) =
1

_
e
−ikx
dk (1.50)
para a fun¸ c˜ao delta de Dirac, obtemos a rela¸ c˜ao desejada.
Se f(x) for biun´ıvoca ent˜ ao a f´ormula (1.46) nos d´a
_
y
2
y
1
ρ
2
(y)dy =
_
x
2
x
1
ρ
1
(x)dx, (1.51)
onde x
1
e x
2
s˜ ao tais que y
2
= f(x
2
) e y
1
= f(x
1
). Essa express˜ao pode ser
escrita de forma equivalente como
ρ
2
(y)dy = ρ
1
(x)dx. (1.52)
Exemplo 10. Seja y = x
2
e ρ
1
(x) = 1 para 0 ≤ x ≤ 1 e zero para outros
valores de x. Ent˜ ao
ρ
2
(y) =
_
1
0
δ(y −x
2
)dx =
_
1
0
1
2[x[
δ(x −

y)dx =
1
2

y
. (1.53)
Outra maneira ´e usar a express˜ao (1.52) acima para obter
ρ
2
(y) = ρ
1
(x)
1
dy/dx
=
1
2x
=
1
2

y
. (1.54)
Em simula¸ c˜oes num´ericas de processos estoc´asticos, a gera¸ c˜ao de n´ umeros
aleat´ orios que possuem uma certa distribui¸ c˜ao de probabilidades constitui um
item indispens´avel. O caso mais simples e mais usado ´e o de n´ umeros gera-
dos no intervalo [0, 1] com igual probabilidade. Denotando por ξ uma vari´avel
aleat´ oria com tal propriedade, a densidade de probabilidade p(ξ) de ξ ´e dada
por p(ξ) = 1. Entretanto, em algumas simula¸ c˜oes, deseja-se gerar n´ umeros
aleat´ orios com outra distribui¸ c˜ao de probabilidades, digamos com uma densi-
dade de probabilidade ρ(x) definida no intervalo a ≤ x ≤ b. Se conseguirmos
determinar a rela¸ c˜ao x = f(ξ) entre x e ξ, ent˜ ao podemos gerar x a partir de ξ
usando essa rela¸ c˜ao.
22

Dinˆamica Estoc´astica e Irreversibilidade
Vamos considerar aqui somente o caso em que ρ(x) corresponde a uma fun¸ c˜ao
f(ξ) biun´ıvoca. Nesse caso, usando a express˜ao (1.51), obtemos:
_
ξ
0
p(ξ

)dξ

=
_
x
a
ρ(x

)dx

. (1.55)
Tendo em vista que p(ξ) = 1, ent˜ ao
ξ =
_
x
a
ρ(x

)dx

= F(x), (1.56)
onde F(x) ´e a distribui¸ c˜ao acumulada de probabilidade associada `a vari´avel x.
Portanto, f(ξ) ´e a fun¸ c˜ao inversa de F(x), isto ´e, x = f(ξ) = F
−1
(ξ).
Exemplo 11. Suponha que ρ(x) = 2x e 0 ≤ x ≤ 1. Ent˜ ao, F(x) = x
2
e
portanto x = f(ξ) =

ξ.
O m´etodo descrito acima s´ o ´e interessante quando F(x) e sua inversa podem
ser obtidos em forma fechada. Esse n˜ao ´e o caso, por exemplo, da distribui¸ c˜ao
gaussiana. Na parte final da pr´oxima se¸ c˜ao, veremos uma alternativa para
contornar esse problema para o caso gaussiano.
1.8 DISTRIBUIC¸
˜
AO CONJUNTA
Suponha que x e y sejam duas vari´aveis aleat´ orias. A probabilidade de que x
se encontre no intervalo [a, b] e y no intervalo [c, d] ´e
_
b
a
_
d
c
ρ(x, y)dxdy. (1.57)
onde ρ(x, y) ´e a densidade conjunta de probabilidade de x e y. Ela possui as
propriedades
ρ(x, y) ≥ 0 (1.58)
e _ _
ρ(x, y)dxdy = 1. (1.59)
A partir dela podemos obter as densidades marginais de probabilidade ρ
1
(x) de
x e ρ
2
(y) de y, dadas, respectivamente, por
ρ
1
(x) =
_
ρ(x, y)dy (1.60)
e
ρ
2
(y) =
_
ρ(x, y)dx. (1.61)

23 Vari´aveis Aleat´orias
As vari´aveis aleat´ orias x e y s˜ ao independentes entre si quando ρ(x, y) = ρ
1
(x)ρ
2
(y).
Nesse caso, a m´edia do produto de duas fun¸ c˜oes, X(x) e Y (y), ´e igual ao produto
da m´edia, isto ´e,
¸X(x)Y (y)) = ¸X(x))¸Y (y)). (1.62)
Dado ρ(x, y), a distribui¸ c˜ao de probabilidades ρ
3
(z) de uma terceira vari´avel
aleat´ oria z que depende de x e y atrav´es de z = f(x, y) pode ser obtida por
meio da f´ormula
ρ
3
(z) =
_ _
δ(z −f(x, y))ρ(x, y)dxdy. (1.63)
Para o caso de duas vari´aveis aleat´ orias u e v que dependem de x e y atrav´es
da seguinte trasforma¸ c˜ao u = f
1
(x, y) e v = f
2
(x, y), a distribui¸ c˜ao conjunta de
probabilidades ρ
3
(u, v) das vari´aveis aleat´ orias u e v ´e dada por
ρ
3
(u, v) =
_ _
δ(u −f
1
(x, y))δ(v −f
2
(x, y))ρ(x, y)dxdy. (1.64)
Ambas as f´ormulas (1.63) e (1.64) podem ser demonstradas utilizando um pro-
cedimento an´alogo ao caso de uma vari´avel, visto na se¸ c˜ao 1.7.
Se a transforma¸ c˜ao (x, y) →(u, v) for biun´ıvoca, a f´ormula (1.64) implica
ρ
3
(u, v)dudv = ρ(x, y)dxdy. (1.65)
Exemplo 12. A distribui¸ c˜ao de velocidades de Maxwell ´e dada por
ρ(x, y, z) =
_
α

_
3/2
exp¦−
α
2
(v
2
x
+v
2
y
+v
2
z
)¦, (1.66)
onde v
x
, v
y
e v
z
s˜ ao as componentes cartesianas da velocidade de uma mol´ecula,
e α = m/(k
B
T) onde m ´e a massa da mol´ecula, k
B
´e a constante de Boltzmann
e T a temperatura absoluta. Queremos determinar a distribui¸ c˜ao de probabili-
dades ρ
vel
(v) correspondente ao m´odulo v da velocidade de uma mol´ecula, dada
por v =
_
v
2
x
+v
2
y
+v
2
z
. Para isso, determinamos inicialmente a densidade de
probabilidades conjunta ρ
3
(v, θ, ϕ) onde θ e ϕ s˜ ao os ˆangulos esf´ericos. A partir
de
ρ
3
(v, θ, ϕ)dvdθdϕ = ρ(v
x
, v
y
, v
z
)dv
x
dv
y
dv
z
(1.67)
e usando a rela¸ c˜ao dv
x
dv
y
dv
z
= v
2
sin θdvdθdϕ entre coordenadas cartesianas e
esf´ericas, obtemos:
ρ
3
(v, θ, ϕ) =
_
α

_
3/2
exp(−
α
2
v
2
)r
2
sin θ. (1.68)
24

Dinˆamica Estoc´astica e Irreversibilidade
Logo
ρ
vel
(v) =
_
π
0
_

0
ρ
3
(v, θ, ϕ)dθdϕ = 4π
_
α

_
3/2
v
2
exp(−
α
2
v
2
). (1.69)
Um exemplo muito ´ util do emprego de transforma¸ c˜ao de vari´aveis encontra-
se no seguinte algoritmo utilizado para gerar n´ umeros aleat´ orios que estejam dis-
tribu´ıdos de acordo com a distribui¸ c˜ao gaussiana a partir de n´ umeros aleat´ orios
gerados com igual probabilidade no intervalo [0, 1]. Sejam ξ e ζ duas vari´aveis
aleat´ orias independentes e uniformemente distribu´ıdas no intervalo [0, 1] e con-
sidere duas vari´aveis aleat´ orias r e θ definidas por
r =
_
2
α
[ ln(1 −ξ)[ e θ = 2πζ, (1.70)
onde α ´e uma constante positiva. Elas possuem as seguintes densidades de
probabilidades:
ρ
1
(r) = αr exp(−
α
2
r
2
) (1.71)
e
ρ
2
(θ) =
1

, 0 ≤ θ ≤ 2π, (1.72)
respectivamente. Definimos em seguida as vari´aveis x e y por
x = r sin θ e y = r cos θ. (1.73)
A distribui¸ c˜ao conjunta de probabilidades ρ
c
(x, y) dessas vari´aveis ´e dada por
ρ
c
(x, y)dxdy = ρ
1
(r)ρ
2
(θ)drdθ. (1.74)
Como dxdy = rdrdθ, obtemos, ent˜ ao:
ρ
c
(x, y) =
α

exp¦−
α
2
(x
2
+y
2
)¦ (1.75)
e, portanto, ρ
c
(x, y) = ρ(x)ρ(y) onde
ρ(x) =
_
α

_
1/2
exp(−
α
2
x
2
) (1.76)
´e a distribui¸ c˜ao gaussiana. Note que x e y s˜ ao vari´aveis aleat´ orias independentes.
Assim, a partir de dois n´ umeros aleat´ orios ξ e ζ uniformemente distribu´ıdos
no intervalo [0, 1], podemos gerar, utilizando as equa¸ c˜oes (1.70) e (1.73), dois
n´ umeros aleat´ orios independentes x e y cada um deles distribu´ıdos de acordo
com a distribui¸ c˜ao gaussiana (1.76).

25 Vari´aveis Aleat´orias
BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P.J. 1973. Introdu¸ c˜ ao ` a Teoria das Probabilidades. Livros T´ecnicos
e Cient´ıficos, Rio de Janeiro.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em N´ıvel Intermedi´ ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
EXERC
´
ICIOS
1. Determine a m´edia e a variˆancia da distribui¸ c˜ao binomial p

= (
N

)a

b
N−ℓ
e da distribui¸ c˜ao de Poisson p

= e
−α
α

/ℓ!.
2. Obtenha a distribui¸ c˜ao de Poisson a partir da distribui¸ c˜ao binomial, to-
mando o limite em que N → ∞ e a → 0 de tal forma que aN = α,
constante.
3. Mostre que ¸(x −¸x))
2
) = ¸x
2
) −¸x)
2
.
4. Determine todos os momentos das distribui¸ c˜oes de probabilidades dadas
abaixo:
a) Distribui¸ c˜ao quadrada:
ρ(x) =
_
0, [x[ > a,
(2a)
−1
, [x[ ≤ a.
b) Distribui¸ c˜ao exponencial:
ρ(x) = αexp(−αx), x ≥ 0.
26

Dinˆamica Estoc´astica e Irreversibilidade
c) Distribui¸ c˜ao de Laplace:
ρ(x) =
α
2
exp(−α[x[).
5. Obtenha as fun¸ c˜oes caracter´ısticas g(k) correspondentes `as distribui¸ c˜oes
definidas no exerc´ıcio anterior. Desenvolva g(k) em s´erie de Taylor para
obter os momentos. Compare com os resultados do exerc´ıcio anterior.
6. Determine a fun¸ c˜ao caracter´ıstica da distribui¸ c˜ao de probabilidade de Lo-
rentz
ρ(x) =
a
π(a
2
+x
2
)
.
7. Determine a fun¸ c˜ao caracter´ıstica da distribui¸ c˜ao gaussiana abaixo
ρ(x) =
1

2πσ
2
exp¦−
(x −m)
2

2
¦.
Quais s˜ ao os cumulantes dessa distribui¸ c˜ao?
8. Determine a distribui¸ c˜ao de probabilidades e os momentos corresponden-
tes `a fun¸ c˜ao caracter´ıstica g(k) = p +q cos k, onde p +q = 1.
9. Determine a fun¸ c˜ao geratriz e a partir dela a m´edia e a variˆancia das
seguintes distribui¸ c˜oes de probabilidades:
a) Distribui¸ c˜ao de Poisson p

= e
−α
α

/ℓ,
b) Distribui¸ c˜ao geom´etrica p

= b

a, onde a +b = 1.
10. A densidade de probabilidade da vari´avel aleat´ oria x ´e dada por ρ
1
(x) = 1
para 0 ≤ x ≤ 1 e ρ
1
(x) = 0 para outros valores de x. Obtenha a densidade
de probabilidade ρ
2
(y) da vari´avel y = f(x) para os seguintes casos: a)
f(x) = cos(2πx); b) f(x) = lnx.
11. Uma part´ıcula possui igual probabilidade de se encontrar em qualquer
ponto de uma superf´ıcie esf´erica cujo centro coincide com a origem de um
sistema de coordenadas esf´ericas. Determine a probabilidade de encon-
trar a part´ıcula entre as circunferˆencias (latitudes) descritas pelos ˆangulos
azimutais θ
1
e θ
2
.
12. Determine um algoritmo para gerar n´ umeros aleat´ orios que estejam dis-
tribu´ıdos de acordo com a distribui¸ c˜ao exponencial, a partir de n´ umeros
aleat´ orios ξ igualmente distribu´ıdos no intervalo [0, 1]. Gere os n´ umeros a
partir desse algoritmo, fa¸ ca um histograma e compare-o com a express˜ao
anal´ıtica. Fa¸ ca o mesmo para o caso da distribui¸ c˜ao de Lorentz.

27 Vari´aveis Aleat´orias
13. Gere n´ umeros aleat´ orios que sejam distribu´ıdos de acordo com a distri-
bui¸ c˜ao gaussiana com largura σ = 1. Fa¸ ca um histograma e compare com
a curva anal´ıtica.
2
Seq
¨
u
ˆ
encia de Vari
´
aveis Independentes
2.1 SOMA DE VARI
´
AVEIS INDEPENDENTES
Muitos fenˆomenos aleat´ orios s˜ ao constitu´ıdos por um conjunto ou por uma su-
cess˜ ao de ensaios independentes e, portanto, descritos por vari´aveis aleat´ orias
independentes. Como exemplo, citamos o passeio aleat´ orio, que serve como mo-
delo para diversos fenˆomenos aleat´ orios. A intervalos regulares de tempo, um
caminhante d´a um passo para frente ou para tr´as, aleatoriamente, sendo que
cada passo dado n˜ao dependente dos passos dados anteriormente. H´ a dois teo-
remas fundamentais relativos ao comportamento de uma seq¨ uˆencia de vari´aveis
independentes, v´ alidos quando o n´ umero delas ´e muito grande: a lei dos grandes
n´ umeros e o teorema central do limite.
Considere uma vari´avel aleat´ oria y que seja a soma de duas vari´aveis aleat´ orias
independentes x
1
e x
2
, cujas fun¸ c˜oes caracter´ısticas s˜ ao g
1
(k) e g
2
(k), respec-
tivamente. A fun¸ c˜ao caracter´ıstica G(k) correspondente a y est´ a relacionada a
g
1
(k) e g
2
(k) atrav´es de
G(k) = g
1
(k)g
2
(k). (2.1)
Ou seja, a fun¸ c˜ao caracter´ıstica de uma soma de vari´aveis ´e igual ao produto
das corres- pondentes fun¸ c˜oes caracter´ısticas.
30

Dinˆamica Estoc´astica e Irreversibilidade
Para demontrar esse resultado basta usar a rela¸ c˜ao
ρ(y) =
_
δ(y −x
1
−x
2

1
(x
1

2
(x
2
)dx
1
dx
2
(2.2)
obtida do cap´ıtulo 1, onde ρ
1
(x
1
), ρ(x
2
) e ρ(y) s˜ ao as densidades de probabi-
lidade correspondentes a x
1
, x
2
e y, respectivamente. Multiplicando ambos os
membros por e
iky
e integrando em y, obtemos o resultado (2.1). Alternativa-
mente podemos partir da defini¸ c˜ao de fun¸ c˜ao caracter´ıstica e escrever
G(k) =
_
e
iky
ρ(y)dy = ¸e
iky
) = ¸e
ikx
1
e
ikx
2
). (2.3)
Mas como as vari´aveis s˜ ao independentes, ent˜ ao
¸e
ikx
1
e
ikx
2
) = ¸e
ikx
1
)¸e
ikx
2
) (2.4)
de onde se obt´em o resultado (2.1), pois
g
1
(k) = ¸e
ikx
1
) =
_
e
ikx
1
ρ
1
(x
1
)dx
1
(2.5)
e
g
2
(k) = ¸e
ikx
2
) =
_
e
ikx
2
ρ
2
(x
2
)dx
2
. (2.6)
Suponha em seguida que a vari´avel y seja a soma de N vari´aveis indepen-
dentes, isto ´e,
y = x
1
+x
2
+x
3
+... +x
N
=
N

j=1
x
j
. (2.7)
Ent˜ ao o resultado acima se generaliza para
G(k) = g
1
(k)g
2
(k)g
3
(k)...g
N
(k). (2.8)
Denotando por κ
n
o n-´esimo cumulante de y e por κ
(j)
n
o n-´esimo cumulante
de x
j
ent˜ ao, a partir de (2.8),
κ
n
=
N

j=1
κ
(j)
n
. (2.9)
Para obter esse resultado basta tomar o logaritmo de ambos os membros de
(2.8) e comparar os coeficientes da n-´esima potˆencia de k. Dois casos importantes
desse resultado geral correspondem a n = 1 (m´edia) e n = 2 (variˆancia). Quando
n = 1
¸y) =
N

j=1
¸x
j
), (2.10)

31 Seq¨ uˆencia de Vari´aveis Independentes
e quando n = 2
¸y
2
) −¸y)
2
=
N

j=1
¦¸x
2
j
) −¸x
j
)
2
¦. (2.11)
Esses resultados podem tamb´em ser obtidos de forma direta. Tomando a
m´edia de ambos os lados de (2.7), obt´em-se a rela¸ c˜ao (2.10) entre as m´edia.
Elevando ambos os membros de (2.7) ao quadrado e tomando a m´edia, obtemos
¸y
2
) =
N

j=1
¸x
2
j
) + 2

j<k
¸x
j
)¸x
k
). (2.12)
onde levamos em conta que as vari´aveis aleat´ orias s˜ ao independentes. Tomando
o quadrado de ambos os membros de (2.10) e comparando com (2.12), obtemos
a rela¸ c˜ao (2.11) entre as variˆancias.
Se as N vari´aveis independentes tiverem a mesma distribui¸ c˜ao de probabili-
dades e, portanto, a mesma fun¸ c˜ao caracter´ıstica g(k), ent˜ ao
G(k) = [g(k)]
N
. (2.13)
e, portanto,
κ
n
= Nκ
(j)
n
. (2.14)
Em particular, quando n = 1,
¸y) = N¸x
j
) (2.15)
e, quando n = 2,
¸y
2
) −¸y)
2
= N¦¸x
2
j
) −¸x
j
)
2
¦. (2.16)
Ou seja a m´edia e a variˆancia de y s˜ ao iguais a N vezes a m´edia e a variˆancia
de x
j
, respectivamente.
Exemplo 1. Ensaios de Bernoulli. Considere uma seq¨ uˆencia de N ensaios
independentes. Em cada ensaio, podem ocorrer apenas dois eventos / e B,
mutualmente excludentes. Seja p a probabilidade de ocorrˆencia de /e q = 1−p a
probabilidade de ocorrˆencia de B. Desejamos determinar a probabilidade P
N
(ℓ)
de que / ocorra ℓ vezes numa seq¨ uˆencia de N ensaios. Para cada ensaio defina
uma vari´avel aleat´ oria ξ
i
(i = 1, 2, ..., N) que toma o valor 1 caso ocorra / e o
valor 0 caso ocorra B. Portanto a probabilidade de ξ
i
= 1 ou 0 ´e igual a p ou q,
respectivamente. Queremos determinar a distribui¸ c˜ao de probabilidades P
N
(ℓ)
da vari´avel aleat´ oria
ℓ = ξ
1

2
+... +ξ
N
(2.17)
32

Dinˆamica Estoc´astica e Irreversibilidade
que conta quantas vezes ocorreu o evento / numa seq¨ uˆencia de N ensaios.
A fun¸ c˜ao caracter´ıstica G(k) da vari´avel ℓ ´e, por defini¸ c˜ao, dada por
G(k) =


P
N
(ℓ)e
ikℓ
. (2.18)
Por outro lado, como as vari´aveis ξ
i
s˜ ao independentes e tˆem a mesma dis-
tribui¸ c˜ao de probabilidades, ent˜ ao a fun¸ c˜ao caracter´ıstica G(k) da vari´avel
aleat´ oria ℓ ´e dada por
G(k) = [g(k)]
N
, (2.19)
onde g(k) ´e a fun¸ c˜ao caracter´ıstica de cada uma das vari´aveis aleat´ orias ξ
j
e
dada por
g(k) = ¸e
ikξ
1
) = pe
ik
+q. (2.20)
Assim
G(k) = (pe
ik
+q)
N
. (2.21)
Usando a expans˜ao binomial, obtemos
G(k) =
N

ℓ=0
(
N

)p

e
ikℓ
q
N−ℓ
, (2.22)
que, comparada com a express˜ao (2.18), nos d´a
P
N
(ℓ) = (
N

)p

q
N−ℓ
, (2.23)
que ´e a distribui¸ c˜ao de probabilidades binomial.
2.2 LEI DOS GRANDES N
´
UMEROS
Vamos considerar aqui uma seq¨ uˆencia de N vari´aveis aleat´ orias ξ
1
, ξ
2
, ..., ξ
N
independentes e identicamente distribu´ıdas, isto ´e, que tenham a mesma distri-
bui¸ c˜ao de probabilidades. A lei dos grandes n´ umeros diz que
1
N
N

j=1
ξ
j
→a quando N →∞, (2.24)
onde a = ¸ξ
j
) ´e a m´edia da distribui¸ c˜ao comum. A ´ unica condi¸ c˜ao para a vali-
dade desse teorema ´e que a m´edia exista. Esse teorema permite a interpreta¸ c˜ao
freq¨ uencial da probabilidade de um evento. Suponha que estamos interessados
em saber a freq¨ uˆencia de ocorrˆencia de um evento / numa seq¨ uˆencia de N en-
saios. Se denotarmos por ξ
j
a vari´avel que toma o valor 1 se ocorrer o evento /

33 Seq¨ uˆencia de Vari´aveis Independentes
e o valor 0 quando n˜ao ocorrer o evento /, ent˜ ao ℓ = (ξ
1

2
+... +ξ
N
) ser´a o
n´ umero de vezes que o evento / aconteceu e a frequˆencia ser´a, pois, f = ℓ/N.
Por outro lado, a = ¸ξ
j
) = p onde p ´e a probabilidade de ocorrer /. Logo, a lei
dos grandes n´ umeros garante que f = p quando N →∞.
O resultado (2.24) significa que, no limite N →∞, o ´ unico resultado poss´ıvel
para a vari´avel y ´e a, o que ´e equivalente a dizer que y assume o valor a com
probabilidade um ou ainda que a densidade de probabilidades associada a y ´e
ρ(y) = δ(y −a). (2.25)
Esse resultado se demonstra como segue.
Seja G
y
(k) a fun¸ c˜ao caracter´ıstica correpondente `a vari´avel aleat´ oria y defi-
nida por
y =
1
N
N

j=1
ξ
j
(2.26)
e g(k) a fun¸ c˜ao caracter´ıstica de cada uma das vari´aveis ξ
j
. Ent˜ ao
G
y
(k) = ¸e
iky
) =
N

j=1
¸e
ikξ
j
/N
) = [g(
k
N
)]
N
. (2.27)
Como a m´edia existe, podemos escrever
g(k) = 1 +ika +o(k) (2.28)
onde o(x) significa que o(x)/x →0 quando x →0. Dessa forma
[g(
k
N
)]
N
= [1 +
ika
N
+o(
k
N
)]
N
→e
ika
quando N →∞ (2.29)
e portanto
G
y
(k) = e
ika
. (2.30)
A distribui¸ c˜ao de probabilidades ρ(y) de y ´e obtida pela antitransformada de
Fourier, que ´e a densidade dada pela express˜ao (2.25).
Nota. Como dissemos acima, a condi¸ c˜ao para a validade da lei dos grandes
n´ umeros ´e que a m´edia exista. A existˆencia da m´edia significa que n˜ao s´ o a
integral
_
xρ(x)dx seja finita mas tamb´em que a integral
_
[x[ρ(x)dx seja finita
(convergˆencia absoluta). Um contra-exemplo ´e a distribui¸ c˜ao de Lorentz para a
qual essa integral diverge.
34

Dinˆamica Estoc´astica e Irreversibilidade
2.3 TEOREMA CENTRAL DO LIMITE
O teorema central do limite afirma que a vari´avel aleat´ oria z definida por
z =
1

Nb
¦
N

j=1
ξ
j
−Na¦ (2.31)
possui a distribui¸ c˜ao de probabilidades gaussiana
1


e
−z
2
/2
(2.32)
no limite N → ∞. Para que o teorema central do limite seja v´ alido, basta
existir a m´edia a e a variˆancia b. Note que esse n˜ao ´e o caso, por exemplo, da
distribui¸ c˜ao de Lorentz.
Seja g(k) a fun¸ c˜ao caracter´ıstica de cada uma das vari´aveis aleat´ orias ξ
j
e
considere a expans˜ao em cumulantes. Devemos ter
g(k) = exp¦iak −
1
2
bk
2
+o(k
2
)¦, (2.33)
pois o primeiro cumulante ´e a m´edia a e o segundo ´e a variˆancia b. A fun¸ c˜ao
caracter´ıstica G
z
(k) correspondente `a vari´avel z ´e dada por
G
z
(k) = ¸e
ikz
) = ¸exp¦i
k

Nb
N

j=1

j
−a)¦) (2.34)
ou por
G
z
(k) =
N

j=1
¸e
iKξ
j
)e
−iKa
= ¦g(K)e
−iKa
¦
N
, (2.35)
pois as vari´aveis s˜ ao independentes e possuem a mesma distribui¸ c˜ao de probabi-
lidades, e a vari´avel K ´e definida por K = k/

Nb. Usando a expans˜ao de g(k)
em cumulantes, express˜ao (2.33), obtemos ainda
G
z
(k) = exp¦−
1
2
NbK
2
+No(K
2
)¦. (2.36)
Agora NbK
2
= k
2
e sendo o(K
2
) = o(N
−1
) ent˜ ao No(N
−1
) → 0 quando
N →∞. Portanto
G
z
(k) = e
−k
2
/2
(2.37)
o que corresponde `a distribui¸ cao gaussiana
ρ(z) =
1


e
−z
2
/2
. (2.38)

35 Seq¨ uˆencia de Vari´aveis Independentes
Para N suficientemente grande, esse resultado constitui uma boa apro-
xima¸ c˜ao de modo que, em termos da vari´avel ℓ = ξ
2

2
+...+ξ
N
=

Nbz+Na,
ele se escreve
P
N
(ℓ) =
1

2πNb
exp¦−
(ℓ −Na)
2
2Nb
¦, (2.39)
pois ρ(z)dz = P
N
(ℓ)dℓ e dℓ =

Nbdz.
Exemplo 2. No ensaio de Bernoulli do exemplo 1, a probabilidade de ξ
j
tomar o valor 1 (ocorrˆencia do evento /) ´e p e de tomar o valor 0 (ocorrˆencia
do evento B) ´e q = 1 − p. A fun¸ c˜ao caracter´ıstica ser´a, pois, aquela dada por
(2.20). Podemos usar o teorema central do limite para obter a distribui¸ c˜ao de
probabilidades P
N
(ℓ) para um n´ umero N grande de ensaios. Para isso, basta
conhecer a m´edia e a variˆancia de ξ
j
, dadas por a = ¸ξ
j
) = p e b = ¸ξ
2
j
)−¸ξ
j
)
2
=
p − p
2
= pq, respectivamente. De acordo com o teorema central do limite, a
distribui¸ c˜ao de probabilidades da vari´avel ℓ, que conta quantas vezes ocorreu o
evento /, ser´a
P
N
(ℓ) =
1

2πNpq
exp¦−
(ℓ −Np)
2
2Npq
¦, (2.40)
que ´e uma gaussiana de m´edia Np e variˆancia Npq, as mesmas, ´e claro, da
distribui¸ c˜ao binomial original.
Exemplo 3. Considere um cristal paramagn´etico constitu´ıdo por N ´ıons
magn´eticos. Na presen¸ ca de um campo magn´etico externo, a componente do
dipolo magn´etico de cada´ıon, paralela ao campo, pode estar em dois estados: na
mesma dire¸ c˜ao do campo (evento /) ou na dire¸ c˜ao contr´aria ao campo (evento
B). De acordo com a mecˆ anica estat´ıstica, a probabilidade de ocorrer / ´e
p = e
βH
/(e
βH
+ e
−βH
), e a de ocorrer B ´e q = e
−βH
/(e
βH
+ e
−βH
), onde β ´e
proporcional ao inverso da temperatura absoluta e H ´e proporcional ao campo
magn´etico.
Defina a magnetiza¸ c˜ao M como sendo o n´ umero ℓ de ´ıons a favor do campo
subtra´ıdo do n´ umero N −ℓ de ´ıons contr´arios ao campo, isto ´e, M = 2ℓ −N. Se
usarmos uma vari´avel σ
j
que toma os valores +1 ou −1 caso o j-´esimo ´ıon esteja
a favor ou contr´ario ao campo, respectivamente, ent˜ ao M = σ
1

2
+... +σ
N
.
Todas elas s˜ ao independentes e possuem a mesma distribui¸ c˜ao de probabilidades.
A probabilidade de σ
j
= +1 ´e p e de σ
j
= −1 ´e q de modo que a m´edia ´e
m ≡ ¸σ
j
) = p −q = tanh βH (2.41)
36

Dinˆamica Estoc´astica e Irreversibilidade
e a variˆancia ´e
χ ≡ ¸σ
2
j
) −¸σ
j
)
2
= 1 −m
2
= 1 −tanh
2
βH. (2.42)
Para N muito grande, a distribui¸ c˜ao de probabilidades T
N
(M) da vari´avel
aleat´ oria M ser´a pois
T
N
(M) =
1

2πNχ
exp¦−
(M −Nm)
2
2Nχ
¦. (2.43)
Est´a claro que ¸M) = Nm e que ¸M
2
) − ¸M)
2
= Nχ, ou seja, n˜ao s´ o a m´edia
como a variˆancia de M s˜ ao proporcionais ao n´ umero de ´ıons N do cristal, isto
´e, s˜ ao grandezas extensivas.
2.4 PASSEIO ALEAT
´
ORIO UNIDIMENSIONAL
Considere uma part´ıcula se movendo ao longo de uma reta, partindo da origem.
A cada intervalo de tempo τ, ela salta uma distˆancia h para a direita com pro-
babilidade p e uma distˆancia h para a esquerda com probabilidade q = 1 − p.
Para descrever o movimento da part´ıcula, introduzimos vari´aveis aleat´ orias in-
dependentes σ
1
, σ
2
, σ
3
, ... que tomam os valores +1 ou −1 conforme o salto
seja para a direita ou para a esquerda, respectivamente. A vari´avel σ
j
indica
se no j-´esimo instante a part´ıcula deve saltar para a direita ou para a esquerda
e, portanto, ela toma o valor +1 com probabilidade p e o valor −1 com pro-
babilidade q. A posi¸ c˜ao da part´ıcula no instante t = nτ ser´a x = hm onde
m = σ
1

2
+... +σ
n
.
A m´edia e variˆancia de σ
j
s˜ ao dadas por
a = ¸σ
j
) = p −q (2.44)
e
b = ¸σ
2
j
) −¸σ
j
)
2
= 1 −(p −q)
2
= 4pq, (2.45)
respectivamente. A fun¸ c˜ao caracter´ıstica g(k) da vari´avel σ
j
´e
g(k) = ¸e
ikσ
j
) = pe
ik
+qe
−ik
. (2.46)
Para obter a probabilidade P
n
(m) de a part´ıcula estar a m passos da origem
ap´os n intervalos de tempo, determinamos primeiro a correspondente fun¸ c˜ao
caracter´ıstica
G
n
(k) = [g(k)]
n
= (pe
ik
+qe
−ik
)
n
. (2.47)

37 Seq¨ uˆencia de Vari´aveis Independentes
Fazendo a expans˜ao binomial
G
n
(k) =
n

ℓ=0
(
n

)p

q
n−ℓ
e
ik(2ℓ−n)
(2.48)
e comparando com a defini¸ c˜ao de G
n
(k), dada por
G
n
(k) =
n

m=−n
P
n
(m)e
ikm
, (2.49)
onde m toma os valores −n, −n + 2, ..., n −2, e n, vemos que
P
n
(m) =
n!
(
n+m
2
)!(
n−m
2
)!
p
(n+m)/2
q
(n−m)/2
. (2.50)
Para fazer a compara¸ c˜ao acima ´e conveniente, primeiro, trocar de vari´avel, no
somat´orio, passando de ℓ para m = 2ℓ − n. A m´edia e a variˆancia de m s˜ ao
dadas por
¸m) = na = n(p −q) (2.51)
e
¸m
2
) −¸m)
2
= nb = 4npq. (2.52)
Se desejarmos obter a distribui¸ c˜ao de probabilidades para n ≫ 1, basta
utilizar o teorema central do limite j´a que as vari´aveis σ
1
, σ
2
, σ
3
, ... s˜ ao indepen-
dentes. A partir do resultado (2.39), obtemos:
P
n
(m) =
1

2πnb
exp¦−
(m−na)
2
2nb
¦, (2.53)
v´ alido para n ≫1.
A densidade de probabilidade ρ(x, t) = P
n
(m)/h da vari´avel x no instante t
´e dada por
ρ(x, t) =
1

2πDt
exp¦−
(x −ct)
2
2Dt
¦, (2.54)
onde
c =
ha
τ
=
h(p −q)
τ
(2.55)
e
D =
h
2
b
τ
=
h
2
4pq
τ
. (2.56)
Obtemos ainda os resultados:
¸x) = ct (2.57)
e
¸x
2
) −¸x)
2
= Dt, (2.58)
38

Dinˆamica Estoc´astica e Irreversibilidade
que permitem dizer que c ´e a velocidade m´edia da part´ıcula e D o coeficiente
de difus˜ ao.
Vamos considerar em seguida um passeio aleat´ orio unidimensional gen´erico.
Supo- nha que a cada intervalo de tempo τ uma part´ıcula se desloca de um valor
x
j
da posi¸ c˜ao onde se encontra. Supondo que ela parta da origem, a posi¸ c˜ao da
part´ıcula no instante t = τn ser´a x = x
1
+x
2
+... +x
n
. Seja P(x
j
) a densidade
de probabilidade de x
j
e seja g(k) a correspondente fun¸ c˜ao caracter´ıstica, isto
´e,
g(k) = ¸e
ikx
j
) =
_
P(x
j
)e
ikx
j
dx
j
. (2.59)
A fun¸ c˜ao caracter´ıstica G(k) correspondente `a vari´avel x ´e dada por
G(k) = [g(k)]
n
. (2.60)
Para obter a densidade de probabilidades da vari´avel x para n grande, uti-
lizamos a mesma t´ecnica utilizada para a demonstra¸ c˜ao do teorema central do
limite. Essa t´ecnica equivale a expandir a fun¸ c˜ao caracter´ıstica g(k) em cumu-
lantes at´e segunda ordem, isto ´e,
g(k) = e
iAk−Bk
2
/2
(2.61)
desde que a m´edia A e a variˆancia B de x
j
existam. Portanto,
G(k) = e
inAk−nBk
2
/2
(2.62)
e lembrando que t = nτ e definindo c = A/τ e D = B/τ, temos
G(k) = e
ictk−Dtk
2
/2
(2.63)
de modo que a densidade de probabilidade ρ(x, t) de x ser´a
ρ(x, t) =
1

2πDt
exp¦−
(x −ct)
2
2Dt
¦. (2.64)
´
E interessante notar que a densidade de probabilidade ρ(x, t) para o pro-
blema do passeio aleat´ orio unidimensional satisfaz a seguinte equa¸ c˜ao diferen-
cial:
∂ρ
∂t
= −c
∂ρ
∂x
+
D
2

2
ρ
∂x
2
. (2.65)
Essa ´e uma equa¸ c˜ao de difus˜ ao, com arrastamento, e ´e um caso particular das
equa¸ c˜oes de Fokker-Planck que ser˜ao estudadas no cap´ıtulo 4.
Os resultados (2.64) podem ser mais bem entendidos se examinarmos um
sistema composto por um conjunto de muitas part´ıculas que executam passeios

39 Seq¨ uˆencia de Vari´aveis Independentes
aleat´ orios independentes. A densidade de part´ıculas ´e proporcional `a densidade
de probabilidades ρ dada acima. Assim, se imaginamos que no instante inicial
todas elas se encontram na origem, depois de algum tempo elas estar˜ao espa-
lhadas de acordo com a distribui¸ c˜ao acima. Para tempos longos, a densidade
de part´ıculas ser´a uma gaussiana centrada em x = ct e com largura ∆ =

Dt.
2.5 PASSEIO ALEAT
´
ORIO BIDIMENSIONAL
Vamos considerar agora o caso de uma part´ıcula se movimentando num espa¸ co
bidimensional. O caso de trˆes ou mais dimens˜oes pode ser tratado de modo
semelhante. A cada intervalo de tempo τ, a part´ıcula se desloca da posi¸ c˜ao
anterior para uma nova posi¸ c˜ao. No j-´esimo intervalo de tempo denotamos o
deslocamento por r
j
= (x
j
, y
j
). Supondo que no instante inicial a part´ıcula
esteja no origem do sistema de coordenadas, a posi¸ c˜ao da part´ıcula no instante
t = nτ ser´a r = r
1
+r
2
+... +r
n
. As vari´aveis r
1
, r
2
, ..., r
n
s˜ ao pois consideradas
vari´aveis aleat´ orias independentes, ou melhor, vetores aleat´ orios independentes,
com um determinada distribui¸ c˜ao de probabilidades P(r
j
) = P(x
j
, y
j
). A cor-
respondente fun¸ c˜ao caracter´ıstica g(k) = g(k
1
, k
2
) ser´a dada por
g(k) = ¸exp¦ik r
j
¦) = ¸exp¦i(k
1
x
j
+k
2
y
j
)¦) (2.66)
ou ainda por
g(k) =
_ _
e
ik·r
j
P(r
j
)dx
j
dy
j
. (2.67)
Notar que x
j
e y
j
podem n˜ao ser independentes.
A fun¸ c˜ao caracter´ıstica G(k) correspondente ao vetor r = (x, y) ´e dada por
G(k) = ¸e
ik·r
) = ¸e
ik·(r
1
+r
2
+...+r
n
)
) = ¸e
ik·r
j
)
n
= [g(k)]
n
. (2.68)
Para obter a densidade de probabilidades do vetor aleat´ orio r utilizamos a
mesma t´ecnica usada para demontrar o teorema central do limite. Essa t´ecnica
equivale a usar a expans˜ao de g(k) em cumulantes at´e ordem k
2
, isto ´e,
g(k) = exp¦i(a
1
k
1
+a
2
k
2
) −
1
2
(b
11
k
2
1
+b
12
k
1
k
2
+b
22
k
2
2
)¦, (2.69)
onde
a
1
= ¸x
j
) e a
2
= ¸y
j
) (2.70)
s˜ ao os cumulante de primeira ordem e
b
11
= ¸x
2
j
) −¸x
j
)
2
, (2.71)
40

Dinˆamica Estoc´astica e Irreversibilidade
b
12
= ¸x
j
y
j
) −¸x
j
)¸y
j
) (2.72)
e
b
22
= ¸y
2
j
) −¸y
j
)
2
(2.73)
s˜ ao os cumulantes de segunda ordem. Assim, para t = nτ grande temos
G(k) = exp¦in(a
1
k
1
+a
2
k
2
) −
n
2
(b
11
k
2
1
+ 2b
12
k
1
k
2
+b
22
k
2
2
)¦. (2.74)
A densidade de probabilidade P
n
(r) = P
n
(x, y) do vetor aleat´ orio r = (x, y) ´e
obtida por
P
n
(r) =
1
(2π)
2
_ _
e
−ik·r
G(k)dk
1
dk
2
(2.75)
e ser´a uma gaussiana bidimensional dada por
P
n
(x, y) =
1


n
2
D

exp¦−
1
2nD
[b
22
(x −na
1
)
2
+ 2b
12
(x −na
1
)(y −na
2
) +b
11
(y −a
2
)
2
]¦ (2.76)
onde D = b
11
b
22
−b
2
12
.
Exemplo 4. Suponha que a cada intervalo de tempo τ a part´ıcula se desloque
uma distˆancia h na dire¸ c˜ao x ou na dire¸ c˜ao y com igual probabilidade. Nesse
caso
P(x
j
, y
j
) =
1
4
δ(x
j
−h)δ(y
j
) +
1
4
δ(x
j
+h)δ(y
j
)+
+
1
4
δ(x
j
)δ(y
j
−h) +
1
4
δ(x
j
)δ(y
j
−h). (2.77)
A fun¸ c˜ao caracter´ıstica correspondente ser´a
g(k
1,
k
2
) = ¸e
i(k
1
x
j
+k
2
y
j
)
) =
1
4
(e
ihk
1
+e
−ihk
1
+e
ihk
2
+e
−ihk
2
) (2.78)
ou
g(k
1,
k
2
) =
1
2
(cos hk
1
+ cos hk
2
) (2.79)
Para obter resultados v´ alidos para n grande, utilizamos a expans˜ao em cumu-
lantes at´e ordem k
2
, dada por
g(k
1
, k
2
) = exp¦−
1
4
h
2
(k
2
1
+k
2
2
)¦ (2.80)
Portanto
G(k
1
, k
2
) = exp¦−
1
4
nh
2
(k
2
1
+k
2
2
)¦. (2.81)

41 Seq¨ uˆencia de Vari´aveis Independentes
de modo que, tomando a anti-transformada de Fourier,
P
n
(x, y) =
1
πnh
2
exp¦−
x
2
+y
2
nh
2
¦. (2.82)
Definindo o coeficiente de difus˜ ao D = h
2
/(2τ), ent˜ ao a densidade de probabi-
lidade ρ(x, y, t) de x e y no instante t ´e dada por
ρ(x, y, t) =
1
2πDt
exp¦−
x
2
+y
2
2Dt
¦. (2.83)
´
E facil ver que ¸x
2
) = ¸y
2
) = Dt e portanto ¸r
2
) = ¸x
2
+y
2
) = 2Dt.
Exemplo 5. Suponha que a cada intervalo de tempo τ a part´ıcula se desloque
uma distˆancia fixa h em qualquer dire¸ c˜ao. Ent˜ ao, usando coordenadas polares,
temos:
P(r
j
)dr
j

j
=
1

δ(r
j
−h)dr
j

j
. (2.84)
A fun¸ c˜ao caracter´ıstica correspondente ´e dada por
g(k) = ¸exp¦i(k
1
x
j
+k
2
y
j
)¦) = ¸exp¦i(k
1
r
j
cos θ
j
+k
2
r
j
sin θ
j
)¦) (2.85)
ou
g(k) =
1

_

0
exp¦ih(k
1
cos θ
j
+k
2
sin θ
j
)¦dθ
j
. (2.86)
Definindo k e φ de modo que k
1
= k cos φ e k
2
= k sin φ sejam as componentes
cartesianas de k, ent˜ ao
g(k) =
1

_

0
exp¦ihk cos(θ
j
−φ)¦dθ
j
=
1

_

0
exp¦ihk cos θ
j
¦dθ
j
(2.87)
e portanto g(k) s´ o depende do m´odulo k =
_
k
2
1
+k
2
2
. A integral ´e a fun¸ c˜ao
de Bessel J
0
(hk). Entretanto, para obter o comportamento da densidade de
probabilidade para n grande, necessitamos somente dos cumulantes de primeira
e segunda ordem. Nesse caso temos a
1
= a
2
= 0,
b
11
= ¸x
2
j
) =
_

0
_

0
r
2
cos
2
θ
j
P(r
j
)dr
j

j
=
1
2
h
2
, (2.88)
b
12
= 0 e b
22
= b
11
. Logo
g(k) = exp¦−
h
2
4
(k
2
1
+k
2
2
)¦ (2.89)
de modo que novamente obtemos a mesma distribui¸ c˜ao de probabilidades do
exemplo anterior.
42

Dinˆamica Estoc´astica e Irreversibilidade
BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P. J. 1973. Introdu¸ c˜ ao ` a Teoria das Probabilidades. Livros
T´ecnicos e Cient´ıficos, Rio de Janeiro.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em N´ıvel Intermedi´ ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
EXERC
´
ICIOS
1. Mostre que a soma de duas vari´aveis aleat´ orias gaussianas tamb´em ´e gaus-
siana. Fa¸ ca o mesmo para o caso das distribui¸ c˜oes de Lorentz e de Poisson.
2. Gere uma seq¨ uˆencia de n´ umeros aleat´ orios ξ
1
, ξ
2
, ξ
3
, ... que tomam o valo-
res −1 ou +1 com igual probabilidade. Coloque num gr´ afico a freq¨ uˆencia
f
n
= (ξ
1
+ ξ
2
+ ... + ξ
n
)/n versus o n´ umero n de n´ umeros gerados. Veri-
fique que f
n
→0. Repita o procedimento para o caso em que os n´ umeros
aleat´ orios sejam gerados de acordo com a distribui¸ c˜ao de Lorentz dada
por 1/[π(1 +ξ
2
)]. Nesse caso f
n
→0 ?
3. Gere uma seq¨ uˆencia de N numeros aleat´ orios ξ
1
, ξ
2
, ..., ξ
N
que tomam o
valor 0 ou 1 e calcular z = (ξ
1

2
+... +ξ
N
−Na)/

Nb, onde a = 1/2 ´e a
m´edia e b = 1/2 ´e a variˆancia dos n´ umeros gerados. Repita o procedimento
L vezes e fa¸ ca um histograma dos valores de z. Compare com a distribui¸ c˜ao
gaussiana (2π)
−1/2
exp¦−z
2
/2¦.
4. Considere uma seq¨ uˆencia de N vari´aveis aleat´ orias σ
1
, σ
2
, ..., σ
N
inde-
pendentes e igualmente distribu´ıdas, que tomam o valor +1 ou −1 com
probabilidade iguais a 1/2, e seja x a vari´avel x = (σ
1

2
+... +σ
N
)/N.
Determine as m´edias ¸x), ¸[x[), e ¸x
2
) para N grande.

43 Seq¨ uˆencia de Vari´aveis Independentes
5. Use a f´ormula de Stirling
n! = n
n
e
−n

2πn,
v´ alida para n ≫ 1, e que d´a uma excelente aproxima¸ c˜ao para n!, para
mostrar que a distribui¸ c˜ao de probabilidades binomial, express˜ao (2.23),
´e dada por
P
N
(ℓ) =
_
N
2πℓ(N −ℓ)
_
1/2
exp¦−ℓ ln

Np
−(N −ℓ) ln
N −ℓ
Nq
¦
para N e ℓ grandes. Desenvolva a express˜ao entre chaves em torno de
seu m´aximo, ℓ = Np, para alcan¸ car o resultado (2.39), deduzido por
interm´edio do teorema central do limite.
6. Verifique que a densidade de probabilidade
ρ(x, t) =
1

2πDt
exp¦−
(x −ct)
2
2Dt
¦
satisfaz a equa¸ c˜ao diferencial
∂ρ
∂t
=
1
2
D

2
ρ
∂x
2
−c
∂ρ
∂x
.
7. Use a f´ormula de Stirling para obter a densidade de probabilidades do
exerc´ıcio anterior a partir do resultado
P
n
(m) =
n!
(
n+m
2
)!(
n−m
2
)!
p
(n+m)/2
q
(n−m)/2
,
v´ alido para o passeio aleat´ orio. As defini¸ c˜oes apropriadas s˜ ao x = hm,
t = nτ, D = h
2
b/τ, c = ha/τ, a = p −q e b = 4pq.
8. Considere o passeio aleat´ orio unidimensional descrito pela seq¨ uˆencia σ
1
,
σ
2
, σ
3
, ..., σ
n
de vari´aveis aleat´ orias independentes que tomam os valores
+1 (passo `a direita) e −1 (passo `a esquerda). Suponha, entretanto, que
a probabilidade de σ
j
= +1 seja p se j for ´ımpar e q se j for par, com
p + q = 1. Consequentemente, a probabilidade de σ
j
= −1 ser´a q se j
for ´ımpar e p se j for par. Determine a distribui¸ c˜ao de probabilidades
da posi¸ c˜ao x = h(σ
1
+ σ
2
+ ... + σ
n
) da part´ıcula que executa o passeio
aleat´ orio.
9. Uma part´ıcula executa um passeio aleat´ orio bidimensional. A cada in-
tervalo de tempo τ os poss´ıveis deslocamentos s˜ ao (±h, ±h) todos eles
com a mesma pro- babilidade. Determine a probabilidade de encontrar a
part´ıcula na posi¸ c˜ao r = (hm
1
, hm
2
) depois de n intervalos de tempo.
44

Dinˆamica Estoc´astica e Irreversibilidade
10. Uma mol´ecula de um g´ as desloca-se de uma distˆancia h entre duas co-
lis˜ oes com igual probabilidade em qualquer dire¸ c˜ao. Depois de n colis˜oes,
determine o deslocamento quadr´ atico m´edio ¸r
2
) da mol´ecula a partir do
ponto inicial, onde r = r
1
+r
2
+... +r
n
, sendo r
j
= (x
j
, y
j
, z
j
) o j-´esimo
deslocamento. Ache tamb´em a fun¸ c˜ao caracter´ıstica G(k) = ¸exp(ik r))
da vari´avel r = (x, y, z) e a distribui¸ c˜ao de probabilidade de r. Ache a
express˜ao dessa probabilidade para n grande.
3
Equac¸
˜
ao de Langevin
3.1 MOVIMENTO BROWNIANO
Considere uma part´ıcula de massa m imersa num l´ıquido. Essa part´ıcula est´ a
sujeita a uma for¸ ca viscosa, que consideraremos proporcional `a sua velocidade,
e a for¸ cas de car´ ater aleat´ orio devidas ao impacto da part´ıcula com as mol´eculas
do l´ıquido. Vamos considerar o caso simples de um movimento unidimensional
ao longo do eixo x. A equa¸ c˜ao de movimento ser´a
m
dv
dt
= −αv +F(t), (3.1)
onde
v =
dx
dt
(3.2)
´e a velocidade e x a posi¸ c˜ao da part´ıcula. A primeira parcela do lado direito
da equa¸ c˜ao (3.1) ´e a for¸ ca viscosa, sendo α uma constante, e F(t) ´e a for¸ ca
aleat´ oria que possui as seguintes propriedades:
¸F(t)) = 0, (3.3)
pois, em m´edia, a for¸ ca devida `as mol´eculas ´e nula, e
¸F(t)F(t

)) = Bδ(t −t

), (3.4)
46

Dinˆamica Estoc´astica e Irreversibilidade
pois estamos considerando que os impactos sejam independentes. A equa¸ c˜ao
(3.1), suplementada pelas propriedades (3.3) e (3.4), ´e denominda equa¸ c˜ao de
Langevin.
Dividindo ambos os membros da equa¸ c˜ao (3.1) por m, a equa¸ c˜ao de Langevin
escreve-se na forma
dv
dt
= −γv +ζ(t), (3.5)
onde γ = α/m e ζ(t) = F(t)/m. O ru´ıdo ζ(t) ´e uma vari´avel estoc´astica, isto ´e,
uma vari´avel aleat´ oria dependente do tempo, que possui as propriedades:
¸ζ(t)) = 0 (3.6)
e
¸ζ(t)ζ(t

)) = Γδ(t −t

), (3.7)
onde Γ = B/m
2
.
Velocidade quadr´ atica m´edia
A solu¸ c˜ao gen´erica da equa¸ c˜ao diferencial (3.5) ´e obtida como segue. Come¸ camos
por escrever v(t) = u(t)e
−γt
, onde u(t) ´e uma fun¸ c˜ao de t a ser determinada.
Substituindo em (3.5), vemos que ela deve satisfazer a equa¸ c˜ao
du
dt
= e
γt
ζ(t), (3.8)
cuja solu¸ c˜ao ´e
u = u
0
+
_
t
0
e
γt

ζ(t

)dt

. (3.9)
Portanto
v = v
0
e
−γt
+e
−γt
_
t
0
e
γt

ζ(t

)dt

, (3.10)
onde v
0
´e a velocidade da part´ıcula no instante t = 0. Essa solu¸ c˜ao ´e v´ alida
para qualquer fun¸ c˜ao temporal ζ(t). Em seguida, vamos usar as propriedades
espec´ıficas do ru´ıdo para determinar a m´edia e a variˆancia da velocidade.
Usando a propriedade (3.6) temos
¸v) = v
0
e
−γt
. (3.11)
Dessa forma
v −¸v) = e
−γt
_
t
0
e
γt

ζ(t

)dt

, (3.12)
de onde obtemos
(v −¸v))
2
= e
−2γt
_
t
0
_
t
0
ζ(t

)ζ(t
′′
)e
γ(t

+t
′′
)
dt

dt
′′
(3.13)

47 Equa¸ c˜ao de Langevin
e
¸(v −¸v))
2
) = e
−2γt
_
t
0
Γe
2γt

dt

, (3.14)
onde usamos a propriedade (3.7). Efetuando a integral, obtemos a variˆancia da
velocidade
¸v
2
) −¸v)
2
=
Γ

(1 −e
−2γt
). (3.15)
Para tempos longos, isto ´e, no regime estacion´ ario, ¸v) = 0 e a velocidade
quadr´ atica m´edia se torna
¸v
2
) =
Γ

. (3.16)
Sabemos, a partir da teoria cin´etica dos gases, que
1
2
m¸v
2
) =
1
2
k
B
T (3.17)
onde k
B
´e a constante de Boltzmann e T a temperatura absoluta. Comparando
essas duas equa¸ c˜oes, obtemos a rela¸ c˜ao entre o coeficente Γ e a temperatura:
Γ =
2γk
B
T
m
. (3.18)
Lembrando que B = Γm
2
e que α = γm, obtemos a rela¸ c˜ao entre B e a
temperatura:
B = 2αk
B
T. (3.19)
Deslocamento quadr´ atico m´edio
Em seguida, obteremos o deslocamento quadr´ atico m´edio da part´ıcula. Para
isso, calculamos primeiro x(t) dado por
x = x
0
+
_
t
0
v(t

)dt

, (3.20)
onde x
0
´e a posi¸ c˜ao da part´ıcula no instante t = 0 ou, tendo em vista a equa¸ c˜ao
(3.10),
x = x
0
+v
0
_
t
0
e
−γt

dt

+
_
t
0
e
−γt

_
t

0
ζ(t
′′
)e
γt
′′
dt
′′
dt

. (3.21)
Efetuando a primeira integral e invertendo a ordem das integrais da ´ ultima
parcela,
x = x
0
+v
0
1
γ
(1 −e
−γt
) +
_
t
0
ζ(t
′′
)e
γt
′′
_
t
t
′′
e
−γt

dt

dt
′′
. (3.22)
Integrando em t

, obtemos o resultado:
x = x
0
+v
0
1
γ
(1 −e
γt
) +
1
γ
_
t
0
ζ(t
′′
)(1 −e
γ(t
′′
−t)
)dt
′′
(3.23)
48

Dinˆamica Estoc´astica e Irreversibilidade
que ´e v´ alido para qualquer fun¸ c˜ao temporal ζ(t). Usando a propriedade (3.6),
obtemos o deslocamento m´edio da part´ıcula:
¸x) = x
0
+v
0
1
γ
(1 −e
−γt
). (3.24)
O desvio quadr´ atico m´edio calcula-se determinando primeiro, a partir de
(3.23) e de (3.24), a diferen¸ ca
x −¸x) =
1
γ
_
t
0
ζ(t
′′
)(1 −e
γ(t
′′
−t)
)dt
′′
, (3.25)
de onde se obt´em
(x −¸x))
2
=
1
γ
2
_
t
0
_
t
0
ζ(t

)ζ(t
′′
)(1 −e
γ(t

−t)
)(1 −e
γ(t
′′
−t)
)dt

dt
′′
. (3.26)
Depois, usando a propriedade (3.7), segue-se que
¸(x −¸x))
2
) =
Γ
γ
2
_
t
0
(1 −e
γ(t

−t)
)
2
dt

, (3.27)
de onde obtemos, ap´os efetuar a integral,
¸x
2
) −¸x)
2
=
Γ
γ
2
¦t −
2
γ
(1 −e
−γt
) +
1

(1 −e
−2γt
)¦. (3.28)
Para tempos longos o termo dominante ´e o primeiro de modo que nesse
regime o desvio quadr´ atico m´edio ´e proporcional a t, isto ´e,
¸x
2
) −¸x)
2
= Dt, (3.29)
onde D = Γ/γ
2
= B/α
2
´e o coeficiente de difus˜ ao. Usando a rela¸ c˜ao (3.18),
podemos escrever a seguinte rela¸ c˜ao entre o coeficiente de difus˜ ao e a tempera-
tura:
D =
2k
B
T
α
(3.30)
que ´e a rela¸ c˜ao de Einstein-Smoluchowski.
Embora tenhamos deduzido a rela¸ c˜ao (3.30) para o caso unidimensional,
ela tamb´em vale para o caso real de part´ıculas imersas num l´ıquido. Para
part´ıculas esf´ericas de raio a imersas num l´ıquido de coeficiente de viscosidade
µ, o coeficiente α ´e dado pela lei de Stokes:
α = 6πµa, (3.31)
de modo que
D =
k
B
T
3πµa
. (3.32)

49 Equa¸ c˜ao de Langevin
O conhecimento do coeficiente de difus˜ ao D, obtido atrav´es da medida do desvio
quadr´ atico m´edio ¸x
2
) − ¸x)
2
, permite, pois, a determina¸ c˜ao da constante de
Boltzmann k
B
. De fato, uma tal experiˆencia foi realizada por Perrin examinando
o movimento browniano de part´ıculas supensas num l´ıquido.
Balan¸co energ´etico
O impacto aleat´ orio das mol´eculas do fluido sobre a part´ıcula transfere ener-
gia cin´etica daquelas para a part´ıcula. Essa, por sua vez, dissipa energia devida
`a for¸ ca viscosa e ao mesmo tempo tem sua energia cin´etica modificada. A taxa
com que a energia ´e transferida `a part´ıcula deve ser igual `a soma da taxa com
que a energia ´e dissipada e a varia¸ c˜ao da energia cin´etica da part´ıcula. Esse ba-
lan¸ co energ´etico ´e obtido da seguinte forma. Multiplicamos ambos os membros
da equa¸ c˜ao de Langevin por v e usamos a igualdade vdv/dt = (1/2)dv
2
/dt para
obter:
m
2
d
dt
v
2
= −αv
2
+vF (3.33)
ou
d
dt
(
m
2
v
2
) +vF
at
= vF, (3.34)
onde F
at
= αv ´e a for¸ ca de atrito ou viscosa.
Tomando a m´edia,
dE
c
dt
+P
dis
= P, (3.35)
onde E
c
= m¸v
2
)/2 ´e a energia cin´etica m´edia, P
dis
= ¸vF
at
) = ¸αv
2
) ´e a
taxa de dissipa¸ c˜ao de energia, ou potˆencia dissipada, e P = ¸vF) ´e a taxa de
transferˆencia de energia para a part´ıcula, ou potˆencia transferida.
Cada uma das parcelas do membro direito da equa¸ c˜ao (3.35) pode ser obtida
explicitamente como fun¸ c˜oes do tempo usando a express˜ao de ¸v
2
) dada por
(3.15). Fazendo os c´alculos, obtemos o resultado
P =

2
=
B
2m
=
αk
B
T
m
, (3.36)
ou seja, a potˆencia transferida ´e independente do tempo.
´
E importante notar que, embora P
dis
≥ 0, a varia¸ c˜ao de energia cin´etica
dE
c
/dt pode ser positiva, nula ou negativa. Esse ´ ultimo caso ocorre quando a
energia cin´etica inicial da part´ıcula, mv
2
0
/2, for maior do que a energia cin´etica
m´edia no estado estacion´ ario, k
B
T/2. No regime estacion´ ario, entretanto, a
varia¸ c˜ao de energia cin´etica ´e nula, dE
c
/dt = 0, de modo que P
dis
= P, e
portanto toda a energia transferida `a part´ıcula ´e dissipada.
50

Dinˆamica Estoc´astica e Irreversibilidade
3.2 DISTRIBUIC¸
˜
AO DE PROBABILIDADES
Distribui¸c˜ ao das velocidades
Vimos que a velocidade v(t) de uma part´ıcula livre num meio viscoso e sujeita
a for¸ cas aleat´ orias varia de acordo com a equa¸ c˜ao de Langevin (3.5) onde ζ(t)
´e uma vari´avel estoc´astica, isto ´e, uma vari´avel aleat´ oria dependente do tempo.
Da mesma forma, a velocidade v(t) tamb´em ´e uma vari´avel estoc´astica. A
diferen¸ ca entre elas ´e que a distribui¸ c˜ao de probabilidades de ζ(t) ´e conhecida
previamente enquanto que a de v(t) desejamos determinar.
Para achar a distribui¸ c˜ao de probabilidades relativa a v(t), come¸ camos por
discretizar o tempo em intervalos iguais a τ, escrevendo t = nτ. Dessa maneira,
a equa¸ c˜ao (3.5) ´e escrita na forma aproximada
v
n+1
= av
n
+

τΓξ
n
, (3.37)
onde a = (1 −τγ) e as vari´aveis aleat´ orias ξ
j
possuem as propriedades
¸ξ
j
) = 0 e ¸ξ
j
ξ
k
) = δ
jk
. (3.38)
A partir de (3.37), segue-se a rela¸ c˜ao:
v
n
=
n−1

ℓ=0
w

, (3.39)
onde w

´e definido por
w

= a


τΓξ
n−1−ℓ
(3.40)
e consideramos, por simplicidade, a condi¸ c˜ao inicial v
0
= 0. Dessa forma v
n
´e
uma soma de vari´aveis aleat´ orias independentes.
Denotando por g
n
(k) a fun¸ c˜ao caracter´ıstica relativa `a vari´avel v
n
, temos
g
n
(k) = ¸e
ikv
n
) =
n−1

ℓ=0
¸e
ikw

), (3.41)
pois as vari´aveis w

s˜ ao independentes. Supondo que a distribui¸ c˜ao de probabi-
lidades da vari´avel ξ

seja uma gaussiana de m´edia zero e variˆancia 1, segue-se
que a distribui¸ c˜ao de probabilidades da vari´avel w

tamb´em ser´a uma gaussiana
de m´edia zero mas de variˆancia a
2ℓ
τΓ. Logo
¸e
ikw

) = e
−a
2ℓ
τΓk
2
/2
, (3.42)
de onde obtemos
g
n
(k) = e
−b
n
k
2
/2
, (3.43)

51 Equa¸ c˜ao de Langevin
onde
b
n
= τΓ
n−1

ℓ=0
a
2ℓ
=
1 −a
2n
1 −a
2
τΓ. (3.44)
Portanto, a densidade de probabilidades da vari´avel v
n
obt´em-se calculando a
antitransformada de Fourier de (3.43), ou seja,
P
n
(v
n
) =
1

2πb
n
exp¦−
v
2
n
2b
n
¦. (3.45)
Tomando o limite em que τ →0 e n →∞ com nτ = t fixo, a densidade de
probabilidade ρ(v, t) da vari´avel v no instante t ser´a
ρ(v, t) =
1
_
2πb(t)
exp¦−
v
2
2b(t)
¦, (3.46)
onde b(t) ´e o limite de b
n
, dado por
b(t) =
Γ

(1 −e
−γt
) =
k
B
T
m
(1 −e
−γt
). (3.47)
No regime estacion´ ario, isto ´e, para t →∞, b(t) →k
B
T/m, e obtemos
ρ(v) =
_
m
2πk
B
T
exp¦−
mv
2
2k
B
T
¦, (3.48)
que ´e a distribui¸ c˜ao de velocidades de Maxwell, para o caso unidimensional.
Distribui¸c˜ ao das posi¸ c˜ oes
Para obter a distribui¸ c˜ao de probabilidade das posi¸ c˜oes, vamos proceder da
mesma maneira como fizemos acima. Usando a mesma discretiza¸ c˜ao escrevemos
x
n+1
= x
n
+τv
n
(3.49)
de onde segue a rela¸ c˜ao
x
n
= τ
n−1

ℓ=1
v

, (3.50)
na qual consideramos por simplicidade que x
0
= 0 e que v
0
= 0. Note que as
vari´aveis v

n˜ao s˜ ao independentes. Se, entretanto, usarmos a equa¸ c˜ao (3.39)
podemos escrever
x
n
=
n−1

ℓ=1
u

, (3.51)
onde
u

=
1
γ
(1 −a

)

τΓξ
n−1−ℓ
, (3.52)
52

Dinˆamica Estoc´astica e Irreversibilidade
de modo que agora x
n
´e uma soma de vari´aveis independentes u

.
Denotando por G
n
(k) a fun¸ c˜ao caracter´ıstica relativa a vari´avel aleat´ oria x
n
,
temos
G
n
(k) = ¸e
ikx
n
) =
n−1

ℓ=1
¸e
iku

). (3.53)
Como a vari´avel ξ

possui distribui¸ c˜ao gaussiana de m´edia zero e variˆancia
1, ent˜ ao a vari´avel u

tamb´em ter´ a a mesma distribui¸ c˜ao mas com variˆancia
(1 −a

)
2
τΓ/γ
2
. Logo
G
n
(k) = e
−d
n
k
2
/2
, (3.54)
onde
d
n
=
τΓ
γ
2
n−1

ℓ=1
(1 −a

)
2
=
τΓ
γ
2
¦n −2
1 −a
n
1 −a
+
1 −a
2n
1 −a
2
−(1 −a)
2
¦. (3.55)
No limite τ → 0 e n → ∞ com nτ = t fixo, obtemos a densidade de
probabilidade ρ
1
(x, t) da vari´avel x na forma de uma gaussiana
ρ
1
(x, t) =
1
_
2πd(t)
exp¦−
x
2
2d(t)
¦, (3.56)
onde d(t) ´e o limite de d
n
, dado por
d(t) =
Γ
γ
2
¦t −
2
γ
(1 −e
−γt
) +
1

(1 −e
−2γt
)¦, (3.57)
que por sua vez ´e a variˆancia de x(t) dada pela equa¸ c˜ao (3.28). No regime em
que t ´e muito grande d(t) →Dt e assim
ρ
1
(x, t) =
1

2πDt
exp¦−
x
2
2Dt
¦, (3.58)
que coincide com a express˜ao vista anteriormente para o caso do passeio aleat´ orio.
3.3 CONJUNTO DE EQUAC¸
˜
OES DE LANGEVIN
Suponha que um sistema seja descrito por um conjunto de N vari´aveis x
1
, x
2
,
x
3
, ..., x
N
. A equa¸ c˜ao do movimento para esse sistema ´e dada pelo conjunto de
equa¸ c˜oes
dx
i
dt
= f
i
(x
1
, x
2
, ..., x
N
) +ζ
i
(t) (3.59)
para i = 1, 2, ..., N, onde as vari´aveis estoc´asticas ζ
1
(t), ζ
2
(t), ..., ζ
N
(t) possuem
as seguintes propriedades
¸ζ
i
(t)) = 0 (3.60)

53 Equa¸ c˜ao de Langevin
e
¸ζ
i
(t)ζ
j
(t

)) = Γ
ij
δ(t −t

), (3.61)
onde Γ
11
, Γ
12
, Γ
22
, ... s˜ ao constantes. A equa¸ c˜ao de Langevin (3.59) ´e uma
equa¸ c˜ao estoc´astica em que o ru´ıdo ´e aditivo.
Exemplo 1. Considere uma part´ıcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita a uma for¸ ca viscosa e a
uma for¸ ca externa el´astica. A equa¸ c˜ao de Newton para essa part´ıcula ´e
m
dv
dt
= −αv −kx +F(t), (3.62)
onde F(t) ´e a for¸ ca aleat´ oria que possui as propriedades
¸F(t)) = 0 (3.63)
e
¸F(t)F(t

)) = Bδ(t −t

), (3.64)
A equa¸ c˜ao (3.62) junto com a equa¸ c˜ao
dx
dt
= v (3.65)
constituem as equa¸ c˜oes de movimento da part´ıcula.
Dividindo ambos os membros de (3.62) por m, obtemos a equa¸ c˜ao
dv
dt
= −γv −ω
2
x +ζ(t), (3.66)
onde γ = α/m e ω
2
= k/m. O ru´ıdo ζ(t) possui as propriedades
¸ζ(t)) = 0 (3.67)
e
¸ζ(t)ζ(t

)) = Γδ(t −t

), (3.68)
onde Γ = B/m
2
. Fazendo as identifica¸ c˜oes
x
1
= x, f
1
(x, v) = v, (3.69)
x
2
= v, f
2
(x, v) = −γv −ω
2
x (3.70)
e Γ
11
= Γ
12
= Γ
21
= 0 e Γ
22
= Γ, vemos que as equa¸ c˜oes (3.66) e (3.65) se
ajustam `a forma (3.59), com N = 2.
54

Dinˆamica Estoc´astica e Irreversibilidade
As equa¸ c˜oes de Langevin (3.59) constituem, em geral, um conjunto acoplado
de equa¸ c˜oes. O caso mais simples de um conjunto acoplado ocorre quando as
fun¸ c˜oes f
i
s˜ ao lineares, isto ´e, quando
f
i
=
N

j=1
A
ij
x
j
(3.71)
Nesse caso as equa¸ c˜oes de Langevin s˜ ao dadas por
d
dt
x
i
=
N

j=1
A
ij
x
j

i
(3.72)
e podem ser escritas na forma matricial
d
dt
x = Ax +ζ, (3.73)
onde x e ζ s˜ ao matrizes colunas com elementos x
i
e ζ
i
, respectivamente, e A ´e
a matriz quadrada, N N, cujos elementos s˜ ao A
ij
.
Para resolver a equa¸ c˜ao matricial (3.73) determinamos, inicialmente, a ma-
triz M que diagonaliza a matriz A (caso ela seja diagonaliz´ avel), isto ´e, deter-
minamos M tal que
MAM
−1
= Λ, (3.74)
onde Λ ´e a matriz diagonal cujos elementos Λ
i
s˜ ao os autovalores de A. Em
seguida, constru´ımos a matriz R(t) cujos elementos s˜ ao
R
ij
(t) =

k
M
ik
e
−Λ
k
t
(M
−1
)
kj
, (3.75)
ou seja,
R = MD(t)M
−1
, (3.76)
onde D(t) ´e a matriz diagonal cujos elementos s˜ ao D
k
(t) = e
Λ
k
t
. Derivando
ambos os membros de (3.75) com rela¸ c˜ao ao tempo, obtemos
d
dt
R(t) = MΛD(t)M
−1
. (3.77)
Mas, tendo em vista que MΛ = AM, o lado direito dessa equa¸ c˜ao se torna igual
a AR(t), de modo que
d
dt
R(t) = AR(t). (3.78)
A solu¸ c˜ao geral da equa¸ c˜ao (3.73) se obt´em com a ajuda de R(t). Para a
condi¸ c˜ao inicial x(0) = x
0
, a solu¸ c˜ao ´e dada por
x(t) = R(t)x
0
+
_
t
0
R(t −t

)ζ(t

)dt

, (3.79)

55 Equa¸ c˜ao de Langevin
que pode ser verificada por substitui¸ c˜ao direta em (3.73), usando a propriedade
(3.78) e levando em conta que R(0) = I onde I ´e a matriz identidade. A partir
dessa solu¸ c˜ao podemos obter os diversos momentos de x
i
.
3.4 EVOLUC¸
˜
AO TEMPORAL DOS MOMENTOS
Nesta se¸ c˜ao vamos considerar o caso de uma equa¸ c˜ao de Langevin em uma
vari´avel. Ela ´e dada por
dx
dt
= f(x) +ζ(t), (3.80)
onde f(x) ´e uma fun¸ c˜ao de x somente, que denominamos for¸ ca, e ζ(t) ´e a vari´avel
estoc´astica, ou ru´ıdo, cujas propriedades s˜ ao conhecidas. Ela possui m´edia nula
¸ζ(t)) = 0 (3.81)
e, al´em disso,
¸ζ(t)ζ(t

)) = Γδ(t −t

), (3.82)
isto ´e, as vari´aveis ζ(t) e ζ(t

) s˜ ao independentes para t ,= t

. A vari´avel aleat´ oria
que possui essas propriedades ´e denominada de ru´ıdo branco pois a transformada
de Fourier de ¸ζ(0)ζ(t)) dada por
_
e
iωt
¸ζ(0)ζ(t))dt = Γ (3.83)
´e independente da frequˆencia ω.
Exemplo 2. No movimento browniano, visto na se¸ c˜ao 3.1, uma part´ıcula
livre move-se num meio viscoso e est´ a sujeita a for¸ cas aleat´ orias. Considere que
al´em dessas for¸ cas ela esteja sujeita a uma for¸ ca externa F
e
(x). A equa¸ c˜ao do
movimento ser´a ent˜ ao
m
d
2
x
dt
2
= F
e
(x) −α
dx
dt
+F(t). (3.84)
Para os casos em que a massa da part´ıcula ´e desprez´ıvel, essa equa¸ c˜ao resulta
em
α
dx
dt
= F
e
(x) +F(t). (3.85)
Dividindo ambos os membros por α, essa equa¸ c˜ao se torna do tipo (3.80) com
f(x) = F
e
(x)/α, e ζ(t) = F(t)/α .
Resolver a equa¸ c˜ao de Langevin significa determinar a distribui¸ c˜ao de proba-
bilidade P(x, t) em cada instante t > 0, dada a distribui¸ cao P(x, 0) no instante
56

Dinˆamica Estoc´astica e Irreversibilidade
t = 0. Se no instante inicial a part´ıcula estiver localizada no ponto x
0
ent˜ ao
P(x, 0) = δ(x−x
0
). Alternativamente podemos determinar todos os momentos
µ

(t) = ¸x

) como fun¸ c˜oes do tempo, dados os momentos no instante inicial. Na
se¸ c˜ao 3.6 veremos como deduzir, a partir da equa¸ c˜ao de Langevin, uma equa¸ c˜ao
diferencial para P(x, t) denominada equa¸ c˜ao de Fokker-Planck. Determinar a
solu¸ c˜ao dessa equa¸ c˜ao significa, portanto, resolver a equa¸ c˜ao de Langevin. Nesta
se¸ c˜ao vamos deduzir equa¸ c˜oes temporais para os diversos momentos de x.
Come¸ camos por discretizar o tempo em intervalos de tempo τ. A posi¸ c˜ao no
ins- tante t = nτ ser´a x
n
e a equa¸ c˜ao de Langevin na forma discretizada ser´a
x
n+1
= x
n
+τf
n
+

τΓξ
n
, (3.86)
onde f
n
= f(x
n
) e ξ
n
possui as propriedades
¸ξ
n
) = 0 e ¸ξ
n
ξ
n
′ ) = δ
nn
′ . (3.87)
A equa¸ c˜ao de Langevin discretizada pode ser vista como uma equa¸ c˜ao de re-
corrˆencia. Notar que a vari´avel alet´ oria x
n+1
´e independente de ξ
n+1
, embora
seja dependente de ξ
n
, de ξ
n−1
, de ξ
n−2
etc.
Em seguida, vemos que
¸x
n+1
) = ¸x
n
) +τ¸f
n
) (3.88)
de onde obtemos
d
dt
¸x) = ¸f(x)) (3.89)
que ´e a equa¸ c˜ao para a evolu¸ c˜ao temporal para a m´edia ¸x).
Elevando ao quadrado ambos os membros de (3.86), temos:
x
2
n+1
= x
2
n
+ 2

τΓξ
n
x
n
+τΓξ
2
n
+ 2τx
n
f
n


τΓξ
n
f
n

2
f
2
n
, (3.90)
de onde obtemos
¸x
2
n+1
) = ¸x
2
n
) +τΓ + 2τ¸x
n
f
n
) +τ
2
¸f
2
n
) (3.91)
usando a propriedade de que x
n
e ξ
n
s˜ ao independentes e que ¸ξ
n
) = 0 e ¸ξ
2
n
) = 1.
Logo
d
dt
¸x
2
) = Γ + 2¸xf(x)) (3.92)
que d´a a evolu¸ c˜ao temporal do segundo momento ¸x
2
).
Para obter a evolu¸ c˜ao temporal do ℓ-´esimo momento de x, elevamos ambos
os membros de (3.86) `a ℓ-´esima potˆencia
x

n+1
= ¦x
n
+τf
n
+

τΓξ
n
¦

. (3.93)

57 Equa¸ c˜ao de Langevin
Desprezando termos de ordem superior a τ, temos:
x

n+1
= x

n
+ℓ

τΓξ
n
x
ℓ−1
n
+ℓτx
ℓ−1
n
f
n
+
1
2
ℓ(ℓ −1)τΓξ
2
n
x
ℓ−2
n
, (3.94)
de onde obtemos
¸x

n+1
) = ¸x

n
) +ℓτ¸x
ℓ−1
n
f
n
) +
1
2
ℓ(ℓ −1)τΓ¸x
ℓ−2
n
) (3.95)
e, portanto,
d
dt
¸x

) = ℓ¸x
ℓ−1
f(x)) +
1
2
ℓ(ℓ −1)Γ¸x
ℓ−2
), (3.96)
que d´a a evolu¸ c˜ao temporal do momento ¸x

).
A equa¸ c˜ao (3.96) ´e na verdade um conjunto de equa¸ c˜oes para os diversos
momentos da vari´avel aleat´ oria x. A equa¸ c˜ao para o primeiro momento pode
depender do segundo momento e portanto n˜ao pode ser resolvida isoladamente.
Dessa forma necessitamos da equa¸ c˜ao para o segundo momento. Entretanto,
a equa¸ c˜ao para o segundo momento pode depender do terceiro momento e,
portanto, devemos utilizar a equa¸ c˜ao para o terceiro momento. Assim o conjunto
de equa¸ c˜oes (3.96) constitui um conjunto hier´arquico de equa¸ c˜oes. Em alguns
casos pode ocorrer que a equa¸ c˜ao para um determinado momento s´ o possui
momentos de ordem inferior. Nesse caso, temos um conjunto finito de equac˜ oes
a resolver.
Exemplo 3. Se f(x) = c, temos:
d
dt
¸x) = c e
d
dt
¸x
2
) = 2c¸x) + Γ, (3.97)
cujas solu¸ c˜oes para a condi¸ c˜ao inicial ¸x) = x
0
e ¸x
2
) = x
2
0
em t = 0 s˜ ao
¸x) = x
0
+ct e ¸x
2
) = x
2
0
+ (Γ + 2cx
0
)t +c
2
t
2
. (3.98)
A partir desses dois momentos, obtemos a variˆancia
¸x
2
) −¸x)
2
= Γt. (3.99)
Esse exemplo se identifica com o problema do passeio aleat´ orio visto na se¸ c˜ao
2.4.
Exemplo 4. Suponha que f(x) = −γx. Nesse caso, as duas primeiras
equa¸ c˜oes nos d˜ao
d
dt
¸x) = −γ¸x) (3.100)
58

Dinˆamica Estoc´astica e Irreversibilidade
e
d
dt
¸x
2
) = −2γ¸x
2
) + Γ. (3.101)
Vemos pois que por integra¸ c˜ao das equa¸ c˜oes acima podemos obter os dois pri-
meiros momentos. Com a condi¸ c˜ao inicial ¸x) = x
0
e ¸x
2
) = x
2
0
em t = 0
obtemos a seguinte solu¸ c˜ao:
¸x) = x
0
e
−γt
(3.102)
e
¸x
2
) =
Γ

+ (x
2
0

Γ

)e
−2γt
. (3.103)
Quando t →∞, ¸x) →0 e ¸x
2
) →Γ/2γ.
Esse exemplo pode ser entendido como o problema original de Langevin
visto na se¸ c˜ao 3.1. Para isso, basta fazer as substitui¸ c˜oes: x → v, γ → α/m e
ζ(t) →F(t)/m, o que acarreta Γ →B/m
2
.
3.5 SIMULAC¸
˜
AO DO MOVIMENTO ALEAT
´
ORIO
O movimento de uma part´ıcula que obedece `a equa¸ c˜ao de Langevin
dx
dt
= f(x) +ζ(t), (3.104)
onde ζ(t) possui as propriedades
¸ζ(t)) = 0 (3.105)
e
¸ζ(t)ζ(t

)) = Γδ(t −t

), (3.106)
pode ser simulado da seguinte forma. Discretizamos o tempo em intervalos de
tempo τ e denotamos por x
n
a posi¸ c˜ao da part´ıcula no instante t = nτ. A
equa¸ c˜ao de Langevin ´e ent˜ ao aproximada por
x
n+1
= x
n
+τf(x
n
) +

τΓξ
n
. (3.107)
onde ξ
0
, ξ
1
, ξ
2
, ... formam uma seq¨ uˆencia de vari´aveis aleat´ orias independentes
tais que
¸ξ
n
) = 0 e ¸ξ
2
n
) = 1. (3.108)
Assim, tendo gerado uma seq¨ uˆencia de n´ umeros aleat´ orios ξ
0
, ξ
1
, ξ
2
, ... e sendo
dada a posi¸ c˜ao inicial x
0
, podemos gerar a sequˆencia de pontos x
1
, x
2
, x
3
, ...,
isto ´e, a trajet´ oria (discretizada) da part´ıcula. Uma poss´ıvel distribui¸ c˜ao de

59 Equa¸ c˜ao de Langevin
probabilidades para a vari´avel ξ
n
´e aquela em que ela toma somente dois valores
−1 e +1, ambos com probabilidade 1/2.
Suponha que desejamos saber a posi¸ c˜ao m´edia da part´ıcula como fun¸ c˜ao do
tempo. Devemos ent˜ ao gerar in´ umeras trajet´ orias partindo do mesmo ponto x
0
.
Uma estimativa da m´edia x
n
= ¸x) no instante t = nτ ser´a dada por
x
n
=
1
L
L

j=1
x
(j)
n
, (3.109)
onde L ´e o n´ umero de trajet´ orias geradas e x
(j)
n
denota a posi¸ c˜ao da part´ıcula
no instante t = nτ na j-´esima trajet´ oria. Da mesma forma, a estimativa do
segundo momento x
2
n
= ¸x
2
) ´e dada por
x
2
n
=
1
L
L

j=1
[x
(j)
n
]
2
, (3.110)
de onde obtemos a estimativa para a variˆancia: x
2
n
− (x
n
)
2
. Outros momentos
tamb´em podem ser igualmente calculados.
Podemos entender a simula¸ c˜ao das L trajet´ orias como sendo as trajet´ orias
de L part´ıculas (n˜ao interagentes) que se movem ao longo da reta real x todas
elas partindo do mesmo ponto x
0
no instante t = 0. A cada intervalo de tempo
τ, cada uma delas se move para um novo ponto de acordo com a equa¸ c˜ao de
Langevin discretizada. A cada instante de tempo t podemos construir tamb´em
um histograma, isto ´e, dividimos a reta real em intervalos ∆x e para cada
intervalo [x, x+∆x] determinamos o n´ umero N(x, t) de part´ıculas cujas posi¸ c˜oes
est˜ ao dentro desse intervalo.
3.6 EQUAC¸
˜
AO DE FOKKER-PLANCK
Seja P
n
(x
n
) a distribui¸ c˜ao de probabilidades da vari´avel x
n
e g
n
(k) a corres-
pondente fun¸ c˜ao caracter´ıstica dada por
g
n
(k) = ¸e
ikx
n
) =
_
e
ikx
n
P
n
(x
n
)dx
n
. (3.111)
Ent˜ ao
g
n+1
(k) = ¸e
ikx
n+1
) = ¸e
ik[x
n
+τf(x
n
)+τζ
n
]
) (3.112)
ou, tendo em vista que x
n
e ζ
n
s˜ ao independentes,
g
n+1
(k) = ¸e
ik[x
n
+τf(x
n
)]
)¸e
ikτζ
n
). (3.113)
60

Dinˆamica Estoc´astica e Irreversibilidade
Em seguida, obtemos a expans˜ao de g
n+1
(k), at´e termos em primeira ordem em
τ. O primeiro termo do produto d´a
¸e
ikx
n
¦1 +ikτf(x
n
)¦) = ¸e
ikx
n
) +ikτ¸f(x
n
)e
ikx
n
) (3.114)
e o segundo
1 +ikτ¸ζ
n
) −
1
2
k
2
τ
2
¸ζ
2
n
) = 1 −
1
2
k
2
τΓ, (3.115)
onde usamos as propriedades ¸ζ
n
) = 0 e ¸ζ
2
n
) = Γ/τ. Logo
g
n+1
(k) = g
n
(k) +τ¦ik¸f(x
n
)e
ikx
n
) −
Γ
2
k
2
¸e
ikx
n
)¦. (3.116)
Usamos agora as seguintes propriedades:
ik¸f(x)e
ikx
) = ¸f(x)
d
dx
e
ikx
) = −
_
e
ikx
d
dx
[f(x)P
n
(x)]dx (3.117)
e
−k
2
¸e
ikx
) = ¸
d
2
dx
2
e
ikx
) =
_
e
ikx
d
2
dx
2
P
n
(x)dx (3.118)
para concluir que
P
n+1
(x) −P
n
(x) = −τ
d
dx
[f(x)P
n
(x)] +τ
Γ
2
d
2
dx
2
P
n
(x). (3.119)
Dividindo ambos os membros por τ e tomando o limite τ →0, obtemos

∂t
P(x, t) = −

∂x
[f(x)P(x, t)] +
Γ
2

2
∂x
2
P(x, t), (3.120)
que ´e a equa¸ c˜ao de evolu¸ cao temporal da distribui¸ c˜ao de probabilidade P(x, t).
Essa equa¸ c˜ao ´e denominada equa¸ c˜ao de Fokker-Planck e ser´a analisada em de-
talhe mais adiante no cap´ıtulo 4.
BIBLIOGRAFIA
Chandrasekhar, S. 1943. ”Stochastic problems in physics and astronomy”.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. ”Random walk and the theory of Brownian motion”. American
Mathematical Monthly , 54, 369.

61 Equa¸ c˜ao de Langevin
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Oliveira, M. J. de 1996. ”Numerical stochastic methods in statistical mecha-
nics”. Int. J. Mod. Phys. B, 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Tom´ e T. & Oliveira M. J. de 1997. ”Stochastic mechanics of nonequilibrium
systems”. Braz. J. Phys., 27, 525.
Ulenbeck, G. E. & Ornstein, L. S. 1930. ”On the theory of the Brownian
motion”. Phys. Rev., 36, 823.
EXERC
´
ICIOS
1. Mostre que a correla¸ c˜ao temporal das velocidades de uma part´ıcula livre,
executando movimento browniano (ver se¸ c˜ao 3.1), ´e dada por
¸v(t
0
)v(t
0
+t)) = e
−α|t|/m
¸v
2
(t
0
)).
Determine, a partir dela, a autocorrela¸ c˜ao de equil´ıbrio K(t) definida por
K(t) = lim
t
0
→∞
¸v(t
0
)v(t
0
+t))
e a transformada de Fourier
´
K(ω) =
_
e
iωt
K(t)dt.
2. Determine explicitamente como fun¸ c˜oes do tempo a varia¸ c˜ao da energia
cin´etica m´edia dE
c
/dt e a potˆencia m´edia dissipada P
dis
para o caso da
part´ıcula livre que executa movimento browniano. Mostre que a soma
dE
c
/dt +P
dis
= P onde P ´e a potˆencia transferida ´e uma constante. Fa¸ ca
um gr´ afico dessa trˆes grandezas versus t. Para quais valores da velocidade
inicial a energia cin´etica m´edia E
c
decresce?
3. Considere uma part´ıcula que executa movimento browniano ao longo do
eixo-x, sujeita a uma for¸ ca viscosa e a uma for¸ ca el´astica. De acordo com
o exemplo 1, as equa¸ c˜oes do movimento da part´ıcula s˜ ao
dv
dt
= −γv −ω
2
x +ζ(t)
62

Dinˆamica Estoc´astica e Irreversibilidade
e
dx
dt
= v,
onde o ru´ıdo ζ(t) possui as propriedades
¸ζ(t)) = 0 e ¸ζ(t)ζ(t

)) = Γδ(t −t

).
Use o m´etodo desenvolvido na se¸ c˜ao 3.3 para determinar x(t) e v(t) como
fun¸ c˜oes do tempo para a condi¸ c˜ao inicial x(0) = 0 e v(0) = 0. Mostre que
x(t) = a
_
t
0
(e
λ
1
(t−t

)
−e
λ
2
(t−t

)
)ζ(t

)dt

e
v(t) = a
_
t
0

1
e
λ
1
(t−t

)
−λ
2
e
λ
2
(t−t

)
)ζ(t

)dt

,
onde
a =
1
λ
1
−λ
2
sendo λ
1
e λ
2
as ra´ızes da equa¸ c˜ao
λ
2
+γλ +ω
2
= 0.
Em particular mostre que
¸x
2
) =
a
2
Γ
2
(
e

1
t
−1
λ
1
+ 4
e
−γt
−1
γ
+
e

2
t
−1
λ
2
),
¸xv) =
a
2
Γ
2
(e
λ
1
t
−e
λ
2
t
)
2
e
¸v
2
) =
a
2
Γ
2

1
(e

1
t
−1) + 4λ
1
λ
2
e
−γt
−1
γ

2
(e

2
t
−1)].
4. Para o movimento browniano apresentado na se¸ c˜ao 3.1, determine ¸v) e
¸v
2
) como fun¸ c˜oes do tempo, usando as equa¸ c˜oes de evolu¸ c˜ao dos mo-
mentos. Determine tamb´em ¸x) a partir de d¸x)/dt = ¸v). Usando a as
equa¸ c˜oes (3.1) e (3.2) na forma discretizada, mostre que
d
dt
¸xv) = −γ¸xv) +¸v
2
)
e que
d
dt
¸x
2
) = 2¸xv)
A partir dessas equa¸ c˜oes, determine ¸xv) e ¸x
2
) como fun¸ c˜oes do tempo.
Supo- nha que no instante t = 0 a posi¸ c˜ao e a velocidade da part´ıcula
sejam x
0
e v
0
, respectivamente.

63 Equa¸ c˜ao de Langevin
5. Considere o conjunto de equa¸ c˜oes de Langevin:
dx
1
dt
= −ax
2

1
(t) e
dx
2
dt
= −bx
1

2
(t),
onde ¸ζ
1
(t)) = ¸ζ
2
(t)) = 0 e ¸ζ
i
(t)ζ
j
(t

)) = Γδ
ij
δ(t − t

). Use o m´etodo
desenvolvido na se¸ c˜ao 3.4 para construir equa¸ c˜oes de evolu¸ c˜ao para ¸x
2
1
),
¸x
2
2
), e ¸x
1
x
2
). Resolva as equa¸ c˜oes para os casos: a) b = a, a > 0 e b)
b = −a, a > 0.
6. Simule o movimento aleat´ orio de uma part´ıcula que obedece a equa¸ c˜ao de
Langevin
dx
dt
= f(x) +ζ(t),
onde ¸ζ(t)) = 0 e ¸ζ(t)ζ(t

)) = Γδ(t − t

), e que se encontra em x = 0 no
instante t = 0, para os casos:
a) f(x) = −a para x < 0, f(x) = 0 para x = 0, e f(x) = a para x > 0,
b) f(x) = −γx, e
c) f(x) = −bx(x
2
−a
2
).
Fa¸ ca histogramas para diversos valores de t.
7. Use a equa¸ c˜ao de Fokker-Planck para deduzir a equa¸ c˜ao de evolu¸ c˜ao tem-
poral dos momentos.
4
Equac¸
˜
ao de Fokker-Planck
4.1 EQUAC¸
˜
AO EM UMA VARI
´
AVEL
Vimos que a equa¸ c˜ao de Langevin em uma vari´avel
dx
dt
= f(x) +ζ(t), (4.1)
onde o ru´ıdo ζ(t) possui as propriedades
¸ζ(t)) = 0 (4.2)
e
¸ζ(t)ζ(t

)) = Γδ(t −t

), (4.3)
est´ a associada `a equa¸ c˜ao de Fokker-Planck em uma vari´avel, ou equa¸ c˜ao de
Smoluchowski,

∂t
P(x, t) = −

∂x
[f(x)P(x, t)] +
Γ
2

2
∂x
2
P(x, t), (4.4)
que d´a a evolu¸ c˜ao temporal da probabilidade P(x, t). Resolver essa equa¸ c˜ao
significa, pois, resolver a equa¸ c˜ao de Langevin.
66

Dinˆamica Estoc´astica e Irreversibilidade
Exemplo 1. A equa¸ c˜ao de Langevin acima pode ser interpretada como a
equa¸ c˜ao de movimento de uma part´ıcula de massa desprez´ıvel que se move num
meio viscoso e sujeita a uma for¸ ca externa. Realmente, a equa¸ c˜ao de movimento
de uma tal part´ıcula ´e
m
d
2
x
dt
2
= −α
dx
dt
+F
e
(x) +F(t), (4.5)
onde a primeira parcela `a direita ´e a for¸ ca viscosa, proporcional `a velocidade; a
segunda ´e a for¸ ca externa e a terceira ´e a for¸ ca aleat´ oria. Quando a massa for
muito pequena, ou no regime de alta viscosidade, podemos desprezar o termo `a
esquerda e escrever
α
dx
dt
= F
e
(x) +F(t). (4.6)
Dividindo ambos os membros dessa equa¸ c˜ao pelo coeficiente de atrito α, ca´ımos
na equa¸ c˜ao (4.1). Assim a grandeza f(x) da equa¸ c˜ao (4.1) ´e interpretada como a
for¸ ca externa, dividida por α, e o ru´ıdo ζ(t) ´e interpretado como for¸ ca aleat´ oria,
dividida por α.
Dois casos particulares da equa¸ c˜ao (4.1) j´a foram vistos anteriormente: o
caso em que f(x) = c, constante, e o caso em que f(x) = −γx. O primeiro caso
corresponde `a difus˜ ao de part´ıculas sujeitas `a uma for¸ ca constante. O segundo
caso corresponde `a difus˜ ao de part´ıculas sujeitas `a uma for¸ ca el´astica.
No primeiro caso, as equa¸ c˜oes de Langevin e Fokker-Planck s˜ ao
dx
dt
= c +ζ(t) (4.7)
e
∂P
∂t
= −c
∂P
∂x
+
Γ
2

2
P
∂x
2
, (4.8)
respectivamente. Vimos no cap´ıtulo 2 que a solu¸ c˜ao dessa equa¸ c˜ao para a
condi¸ c˜ao inicial P(x, 0) = δ(x) ´e a gaussiana
P(x, t) =
1

2πΓt
exp¦−
(x −ct)
2
2Γt
¦. (4.9)
Para o segundo caso, em que f(x) = −γx, as equa¸ c˜oes s˜ ao
dx
dt
= −γx +ζ(t) (4.10)
e
∂P
∂t
= γ
∂(xP)
∂x
+
Γ
2

2
P
∂x
2
. (4.11)

67 Equa¸ c˜ao de Fokker-Planck
Essa ´ ultima ´e conhecida tamb´em como equa¸ c˜ao de Smoluchowski. A solu¸ c˜ao
(ver exerc´ıcio 1) para a condi¸ c˜ao inicial P(x, 0) = δ(x −x
0
) ´e a gaussiana
P(x, t) =
1
_
2πb(t)
exp¦−
[x −a(t)]
2
2b(t)
¦ (4.12)
cuja m´edia a(t) depende de t como
a(t) = x
0
e
−γt
(4.13)
e cuja variˆancia b(t) varia com t de acordo com
b(t) =
Γ

(1 −e
−γt
). (4.14)
Diferentemente do que acontece no primeiro caso, nesse, P(x, t) atinge uma
distribui¸ c˜ao estacion´ aria quando t → ∞ pois a variˆancia b(t) → Γ/2γ nesse
limite. A distribui¸ c˜ao estacion´ aria, que denotamos por P(x), ´e dada por
P(x) =
_
γ
πΓ
exp¦−
γx
2
Γ
¦. (4.15)
4.2 SOLUC¸
˜
AO ESTACION
´
ARIA
Em seguida, vamos ver de que maneira pode ser obtida a solu¸ c˜ao estacion´ aria
da equa¸ c˜ao de Fokker-Planck (4.4) no caso geral. Para isso, escrevemos essa
equa¸ c˜ao na forma

∂t
P(x, t) = −

∂x
J(x, t), (4.16)
onde J(x, t) ´e dada por
J(x, t) = f(x)P(x, t) −
Γ
2

∂x
P(x, t). (4.17)
Na forma (4.16) a equa¸ c˜ao de Fokker-Planck ´e uma equa¸ c˜ao de continuidade,
sendo J(x, t) a corrente de probabilidade. Estamos supondo que a vari´avel x
tome valores no intervalo [a, b] onde um ou ambos os limites podem ser infinitos.
Se integrarmos ambos os lados da equa¸ c˜ao (4.16) em x, obtemos:
d
dt
_
b
a
P(x, t)dx = J(a, t) −J(b, t). (4.18)
Como a densidade de probabilidade P(x, t) deve estar normalizada em qualquer
instante, isto ´e,
_
b
a
P(x, t)dx = 1, (4.19)
68

Dinˆamica Estoc´astica e Irreversibilidade
ent˜ ao o lado esquerdo da equa¸ c˜ao (4.18) deve se anular, de onde se conclui que as
condi¸ c˜oes de contorno deve ser tais que J(a, t) = J(b, t). Assim, a conserva¸ c˜ao
da probabilidade total (4.19) n˜ao ´e conseq¨ uˆencia apenas da equa¸ c˜ao de Fokker-
Planck mas tamb´em das condi¸ c˜oes de contorno. Trataremos nesta se¸ c˜ao somente
do caso em que a corrente de probabilidade nos extremos x = a e x = b se anule
para qualquer instante t, isto ´e, J(a, t) = J(b, t) = 0. A condi¸ c˜ao de contorno
tal que a corrente de probabilidade se anula ´e denominada refletora.
No regime estacion´ ario, a densidade de probabilidade ser´a independente de t
de modo que a corrente de probabilidade tamb´em ser´a independente de t, tendo
em vista a equa¸ c˜ao (4.17). Como o lado esquerdo da equa¸ c˜ao (4.16) se anula,
ent˜ ao a corrente de probabilidade ser´a tamb´em independente de x. Logo, ela
deve ter o mesmo valor qualquer que seja x. Mas como ela ´e nula nos extremos
do intervalo [a, b], ent˜ ao ela deve ser nula em todo o intervalo. Portanto, a
distribui¸ c˜ao estacion´ aria P(x) deve satisfazer a equa¸ c˜ao
f(x)P(x) −
Γ
2
d
dx
P(x) = 0 (4.20)
ou ainda
d
dt
ln P(x) =
2
Γ
f(x). (4.21)
Denotando por V (x) o potencial correspondente `a for¸ ca f(x), isto ´e,
f(x) = −
d
dx
V (x) (4.22)
ent˜ ao
ln P(x) = −
2
Γ
V (x) + const, (4.23)
de onde obtemos
P(x) = Aexp¦−
2
Γ
V (x)¦, (4.24)
onde A ´e uma constante de normaliza¸ c˜ao.
Exemplo 2. Se no exemplo 1 denotarmos por U(x) a energia potencial asso-
ciada a F
e
(x), vemos que U(x) = αV (x). No entanto, vimos no cap´ıtulo anterior
que Γ = 2αk
B
T. Dessa forma temos:
P(x) = Aexp¦−
U(x)
k
B
T
¦. (4.25)
Exemplo 3. Para o caso em que F
e
(x) = −kx, temos U(x) = kx
2
/2 e
portanto
P(x) = Aexp¦−
kx
2
2k
B
T
¦. (4.26)

69 Equa¸ c˜ao de Fokker-Planck
A normaliza¸ c˜ao de P(x) d´a A =
_
k/2πk
B
T.
Exemplo 4. Considere o caso de uma part´ıcula sujeita a um campo gravita-
cional, isto ´e, F
e
(x) = −mg. Nesse caso o intervalo de varia¸ c˜ao de x ´e x ≥ 0.
Temos V (x) = mgx e portanto
P(x) = Aexp¦−
mgx
k
B
T
¦. (4.27)
A normaliza¸ c˜ao d´a A = mg/k
B
T. Note que a equa¸ c˜ao (4.20) est´ a satisfeita para
qualquer valor de x ≥ 0.
4.3 OPERADOR DE EVOLUC¸
˜
AO
Vimos na se¸ c˜ao anterior como obter a solu¸ c˜ao estacion´ aria da equa¸ c˜ao de Fokker-
Planck em uma vari´avel. Nesta se¸ c˜ao mostraremos que a solu¸ c˜ao P(x, t) tende
para a solu¸ c˜ao estacion´ aria P(x) quando t → ∞. Al´em disso, estudaremos o
comportamento de P(x, t) para tempos longos.
A equa¸ c˜ao de Fokker-Planck em uma vari´avel

∂t
P(x, t) = −

∂x
[f(x)P(x, t)] +
Γ
2

2
∂x
2
P(x, t), (4.28)
onde f(x) ´e uma fun¸ c˜ao real, pode ser escrita na forma

∂t
P(x, t) = JP(x, t), (4.29)
onde J ´e o operador de evolu¸ c˜ao, que age sobre fun¸ c˜oes φ(x), definido por
Jφ(x) = −

∂x
[f(x)φ(x)] +
Γ
2

2
∂x
2
φ(x). (4.30)
A classe de fun¸ c˜oes sobre a qual atua o operador J ´e composta por fun¸ c˜oes
φ(x) tais que −f(x)φ(x) +(Γ/2)φ

(x) se anula nos dois extremos x = a e x = b.
Para essas fun¸ c˜oes vale a seguinte propriedade
_
b
a
Jφ(x)dx = 0. (4.31)
Essa propriedade ´e de fundamental importˆancia, pois a partir dela conclu´ımos
que a distribui¸ c˜ao de probabilidades P(x, t), que satisfaz a equa¸ c˜ao de Fokker-
Planck (4.29), estar´a normalizada em qualquer instante t > 0, uma vez que
esteja normalizada em t = 0.
70

Dinˆamica Estoc´astica e Irreversibilidade
´
E importante notar que a distribui¸ c˜ao de probabilidade estacion´ aria P(x)
satisfaz a equa¸ c˜ao
JP(x) = 0. (4.32)
A introdu¸ c˜ao do operador evolu¸ c˜ao J nos permite escrever a solu¸ c˜ao formal
da equa¸ c˜ao de Fokker-Planck:
P(x, t) = e
tW
P(x, 0) (4.33)
onde e
tW
´e o operador definido por
e
tW
= 1 +tJ +
t
2
2!
J
2
+
t
3
3!
J
3
+... (4.34)
Realmente, derivando ambos os membros da equa¸ c˜ao (4.33) com rela¸ c˜ao ao
tempo e usando a defini¸ c˜ao (4.34) vemos que (4.29) fica satisfeita.
Suponha em seguida que J possua um espectro discreto, isto ´e, que


(x) = Λ

φ

(x) (4.35)
para ℓ = 0, 1, 2, ..., onde φ

(x) s˜ ao as autofun¸ c˜oes e Λ

s˜ ao os autovalores de J,
e tamb´em que P(x, 0) admita a expans˜ao
P(x, 0) =

ℓ=0
a

φ

(x). (4.36)
Ent˜ ao a equa¸ c˜ao (4.33) nos d´a
P(x, t) =

ℓ=0
a

e


φ

(x). (4.37)
As autofun¸ c˜oes satisfazem a seguinte equa¸ c˜ao
Λ

_
b
a
φ

(x)dx = 0, (4.38)
que se obt´em usando a propriedade (4.31) na equa¸ c˜ao (4.35).
´
E f´acil ver que uma das autofun¸ c˜oes de J deve ser P(x), a distribui¸ c˜ao de
probabi- lidade estacion´ aria. De fato, examinando a equa¸ c˜ao (4.32), vemos que
P(x) ´e autofun¸ c˜ao com autovalor nulo. Vamos pois colocar φ
0
(x) = P(x) e
Λ
0
= 0. Dessa forma podemos escrever
P(x, t) = P(x) +

ℓ=1
a

e


φ

(x). (4.39)

71 Equa¸ c˜ao de Fokker-Planck
onde levamos em conta que a
0
= 1, o que pode ser mostrado integrando ambos
os lados da equa¸ c˜ao (4.36) e usando o resultado (4.38).
Veremos mais adiante, na se¸ c˜ao 4.5, que os outros autovalores s˜ ao estrita-
mente negativos de forma que todas as parcelas da somat´oria se anulam quando
t →∞. Portanto, nesse limite P(x, t) →P(x).
O comportamento de P(x, t) para tempos longos ser´a portanto exponencial
e ca- racterizado pelo segundo autovalor dominante Λ
1
, ou seja,
P(x, t) = P(x) +a
1
φ

(x)e
−t|Λ
1
|
(4.40)
(desde que a
1
,= 0, sen˜ao basta considerar a pr´oxima parcela cujo coeficiente
a

seja n˜ao nulo). A grandeza t
R
= 1/[Λ
1
[ ´e pois o tempo de relaxa¸ c˜ao para a
solu¸ c˜ao estacion´ aria. Em algumas situa¸ c˜oes, como aquela do exemplo 5 abaixo,
pode acontecer que t
R
→∞, caso em que a relaxa¸ c˜ao deixa de ser exponencial
e passa a ser alg´ebrica.
A solu¸ c˜ao da equa¸ c˜ao de autovalores Jφ(x) = Λφ(x) deve respeitar as
condi¸ c˜oes de contorno, isto ´e, −f(x)φ(x) +(Γ/2)φ

(x) = 0, nos extremos x = a
e x = b.
Exemplo 5. Considere o caso de uma part´ıcula confinada no intervalo −L/2 ≤
x ≤ L/2, na ausˆencia de for¸ cas externas. Nesse caso f(x) = 0 e, portanto, de-
vemos resolver a equa¸ c˜ao de autovalores
Γ
2
d
2
dx
2
φ(x) = Λφ(x) (4.41)
com as condi¸ c˜oes de contorno φ

(−L/2) = φ

(L/2) = 0. As solu¸ c˜oes que obede-
cem essas condi¸ c˜oes s˜ ao
φ

(x) =
_
L
−1
cos(kx) ℓ = 0, 2, 4, ...
L
−1
sin(kx) ℓ = 1, 3, 5, ...
Λ

= −
Γ
2
k
2
, (4.42)
onde k = πℓ/L e escolhemos a normaliza¸ c˜ao de modo que φ
0
(x) = P(x). A
solu¸ c˜ao da equa¸ c˜ao de Fokker-Planck para o caso de a part´ıcula estar na origem
em t = 0, isto ´e, P(x, 0) = δ(x), ser´a
P(x, t) =
1
L
+
2
L

ℓ=2(par)
e
−tΓk
2
/2
cos(kx). (4.43)
Enquanto L for finito o tempo de relaxa¸ c˜ao ser´a t
R
= 1/[Λ
2
[ = (L/2π)
2
. Esse
tempo diverge para L →∞. Nesse caso, entretanto,
P(x, t) =
1
π
_

0
e
−tΓk
2
/2
cos(kx)dk =
1

2πΓt
e
−x
2
/2Γt
(4.44)
72

Dinˆamica Estoc´astica e Irreversibilidade
e, portanto, o decaimento ser´a alg´ebrico, P(x, t) ∼ t
−1/2
.
4.4 EQUAC¸
˜
AO ADJUNTA
`
A equa¸ c˜ao de Fokker-Planck em uma vari´avel,

∂t
P(x, t) = JP(x, t), (4.45)
associamos a equa¸ c˜ao adjunta

∂t
Q(x, t) = J

Q(x, t), (4.46)
onde J

´e o operador adjunto de J, definido por
_
φ(J

χ)

dx =
_
χ

(Jφ)dx (4.47)
para quaisquer fun¸ c˜oes φ(x) e χ(x) que perten¸ cam `a classe de fun¸ c˜oes menci-
onada logo abaixo da equa¸ c˜ao (4.30). A partir das defini¸ c˜oes de J e de J

conclu´ımos que
J

χ(x) = f(x)

∂x
χ(x) +
Γ
2

2
∂x
2
χ(x). (4.48)
Portanto, J n˜ao ´e auto-adjunto (hermitiano), exceto quando f(x) ≡ 0.
Denotando por χ

(x) as autofun¸ c˜oes de J

, podemos escrever
J

χ

= Λ

χ

, (4.49)
pois o operador adjunto J

deve ter os mesmos autovalores de J. Os conjun-
tos das autofun¸ c˜oes desses dois operadores formam um conjunto bi-ortonormal,
possuindo as seguintes propriedades:
_
χ


′ (x)φ

(x)dx = δ



(4.50)
e


χ

(x



(x) = δ(x −x

). (4.51)
Vimos que φ
0
(x) = P(x) ´e a autofun¸ c˜ao (dominante) com autovalor Λ
0
= 0.
A essa autofun¸ c˜ao est´ a associada a autofun¸ c˜ao adjunta χ
0
≡ 1. Que χ
0
≡ 1
´e uma autofun¸ c˜ao com autovalor zero pode ser verificado substituindo-a na
equa¸ cao (4.48), o que fornece J

χ
0
= 0.

73 Equa¸ c˜ao de Fokker-Planck
Existe uma rela¸ c˜ao simples entre as autofun¸ c˜oes de J e de J

, dada por
φ

(x) = P(x)χ

(x). Realmente, substituindo essa express˜ao em Jφ

= Λ

φ

,
usando a defini¸ c˜ao de J dada por (4.30) e a igualdade JP(x) = 0, obtemos:
−Pf

∂x
χ

+
Γ
2
P

2
∂x
2
χ

+ Γ
∂P
∂x
∂χ

∂x
= ΓΛ



. (4.52)
Usando a rela¸ c˜ao (4.20), isto ´e, 2fP = Γ∂P/∂x, obtemos:
f

∂x
χ

+
Γ
2

2
∂x
2
χ

= Λ

χ

(4.53)
que ´e a equa¸ c˜ao de autovalores para o operador adjunto J

.
Exemplo 6. Para o caso de f(x) = −γx, as autofun¸ c˜oes est˜ ao relacionadas
aos polinˆ omios de Hermite H

(x), que satisfazem a rela¸ c˜ao
H
′′

(x) −2xH


(x) = −2ℓH

(x). (4.54)
Comparando com a equa¸ c˜ao (4.53), podemos concluir que χ

(x) = a

H

(x
_
γ/Γ)
e que Λ

= −ℓγ.
4.5 OPERADOR HERMITIANO
Vimos na se¸ c˜ao anterior que, em geral, J n˜ao ´e hermitiano.
´
E poss´ıvel, entre-
tanto, fazer uma tranforma¸ c˜ao sobre J e obter um operador hermitiano, que
denotamos por / e que possui os mesmos autovalores que J.
Definimos o operador / por
/φ(x) = [ψ
0
(x)]
−1
J[ψ
0
(x)φ(x)], (4.55)
onde ψ
0
(x) =
_
P(x). As autofun¸ c˜oes de / s˜ ao ψ

(x) = [ψ
0
(x)]
−1
φ

(x), pois


= ψ
−1
0


= ψ
−1
0
Λ

φ

= Λ

ψ

, (4.56)
de onde conclu´ımos que os autovalores s˜ ao Λ

, os mesmos de J. Para obter
a forma expl´ıcita de /, aplicamos o operador numa fun¸ c˜ao qualquer ψ(x) e
usamos a defini¸ c˜ao de J, isto ´e,
/ψ = ψ
−1
0
J(ψ
0
ψ) = ψ
−1
0
¦−

∂x
(fψ
0
ψ) +
Γ
2

2
∂x
2

0
ψ)¦. (4.57)
Depois usamos a igualdade

∂x
ln ψ
0
=
1
2

∂x
ln P(x) =
1
Γ
f(x) (4.58)
74

Dinˆamica Estoc´astica e Irreversibilidade
para obter a forma desejada:
/ψ = −
1
2
¦
∂f
∂x
+
1
Γ
f
2
¦ψ +
Γ
2

2
ψ
∂x
2
. (4.59)
A equa¸ c˜ao (4.59) revela que o operador −/ se identifica formalmente com
um operador hamiltoniano
H = −
h
2
2m

2
∂x
2
+V
ef
(x) (4.60)
tal que a energia potencial (efetiva) seja dada por
V
ef
(x) =
1
2
¦

∂x
f(x) +
1
Γ
[f(x)]
2
¦ (4.61)
e que a constante Γ seja proporcional ao quadrado da constante de Planck. Para
o caso em que f(x) = −γx temos V
ef
(x) = (−γ +γ
2
x
2
/Γ)/2.
Exemplo 7. Para o caso f(x) = −γx, temos:
/ =
1
2
(γ −
1
Γ
γ
2
x
2
) +
Γ
2

2
∂x
2
. (4.62)
No entanto, sabemos da mecˆ anica quˆantica que

h
2
2m

2
∂x
2
Ψ

+
1
2

2
x
2
Ψ

= hω(ℓ +
1
2


(4.63)
com ℓ = 0, 1, 2, ..., onde Ψ

s˜ ao as outofun¸ c˜oes do oscilador harmˆonico. Fazendo
as substitui¸ c˜oes h
2
/m = Γ, mω
2
= γ
2
/Γ e, portanto, hω = γ, obtemos


=
Γ
2

2
∂x
2
Ψ


1

γ
2
x
2
Ψ

+
γ
2
Ψ

= −γℓΨ

. (4.64)
Logo, Λ

= −γℓ, e os autovalores s˜ ao negativos, exceto Λ
0
= 0.
´
E importante notar que a express˜ao (4.59) nos diz que / ´e de fato hermiti-
ano. Os operadores hermitianos possuem as seguintes propriedades: os autova-
lores s˜ ao reais, as autofun¸ c˜oes s˜ ao ortogonais e formam um conjunto completo.
Essa ´ ultima propriedade justifica a expans˜ao feita em (4.36). Pode-se mostrar
ainda que o autovetor dominante (aquele que corresponde ao maior autovalor)
´e estritamente positivo e n˜ao degenerado. Portanto podemos identific´a-lo com
a densidade de probabilidade estacion´ aria P(x). Sendo nulo o autovalor cor-
respondente (e n˜ao degenerado), ent˜ ao todos os outros devem ser estritamente
negativos.

75 Equa¸ c˜ao de Fokker-Planck
Vamos demonstrar, explicitamente, que os autovalores s˜ ao negativos ou nulo.
Para isso basta mostrar que
_
ψ

(x)/ψ(x)dx ≤ 0 (4.65)
para qualquer fun¸ c˜ao ψ(x). Iniciamos por escrever a equa¸ c˜ao (4.57) na forma
/ψ =
Γ
2
_
ψ
′′

ψ
ψ
0
ψ
′′
0
_
=
Γ
2
1
ψ
0
_
ψ
2
0
(
ψ
ψ
0
)

_

, (4.66)
onde usamos a equa¸ c˜ao (4.58) para eliminar f. Assim
_
ψ

/ψdx =
Γ
2
_
(
ψ

ψ
0
)
_
ψ
2
0
(
ψ
ψ
0
)

_

dx (4.67)
e, fazendo uma integra¸ c˜ao por partes, obtemos:
_
ψ

/ψdx = −
Γ
2
_ ¸
¸
¸
¸
(
ψ
ψ
0
)

¸
¸
¸
¸
2
ψ
2
0
dx ≤ 0, (4.68)
onde a parte integrada se anula tendo em vista as condic˜oes de contorno, isto
´e, a condi¸ c˜ao J(a) = J(b) = 0.
4.6 EQUAC¸
˜
AO EM V
´
ARIAS VARI
´
AVEIS
Nas se¸ c˜oes anterioriores estudamos a equa¸ c˜ao de Fokker-Planck para o caso de
uma vari´avel. Daqui em diante trataremos do caso em que temos mais de uma
vari´avel.
Suponha que um sistema seja descrito por um conjunto de N vari´aveis x
1
,
x
2
, x
3
, ..., x
N
. A equa¸ c˜ao do movimento para esse sistema ´e dada pelo conjunto
de equa¸ c˜oes
dx
i
dt
= f
i
(x
1
, x
2
, ..., x
N
) +ζ
i
(t) (4.69)
para i = 1, 2, ..., N, onde as vari´aveis estoc´asticas ζ
1
(t), ζ
2
(t), ..., ζ
N
(t) possuem
as seguintes propriedades:
¸ζ
i
(t)) = 0 (4.70)
e
¸ζ
i
(t)ζ
j
(t

)) = Γ
ij
δ(t −t

), (4.71)
onde Γ
11
, Γ
12
, Γ
22
, ... s˜ ao constantes.
Desejamos determinar a equa¸ c˜ao da evolu¸ c˜ao temporal da distribui¸ c˜ao de
probabilidades P(x
1
, x
2
, ..., x
N
, t) das vari´aveis x
1
, x
2
, ..., x
N
. Usando procedi-
mento an´alogo `aquele utilizado para o caso de uma vari´avel, visto no cap´ıtulo
76

Dinˆamica Estoc´astica e Irreversibilidade
3, podemos mostrar que essa distribui¸ c˜ao de probabilidades obedece a equa¸ c˜ao

∂t
P = −
N

i=1

∂x
i
(f
i
P) +
1
2
N

i=1
N

j=1
Γ
ij

2
∂x
i
∂x
j
P, (4.72)
que denominamos equa¸ c˜ao de Fokker-Planck em v´ arias vari´aveis.
Exemplo 8. Considere uma part´ıcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita `a for¸ ca viscosa e a uma
for¸ ca externa F
e
(x). A equa¸ c˜ao de Newton para essa part´ıcula ´e
m
dv
dt
= −αv +F
e
(x) +F(t), (4.73)
onde F(t) ´e a for¸ ca aleat´ oria que possui as propriedades
¸F(t)) = 0 (4.74)
e
¸F(t)F(t

)) = Bδ(t −t

), (4.75)
onde B = 2αk
B
T. A equa¸ c˜ao (4.73) junto com a equa¸ c˜ao
dx
dt
= v (4.76)
constituem as equa¸ c˜oes de movimento da part´ıcula. Para que elas estejam na
forma (4.69) dividimos ambos os membros de (4.73) por m. Assim fazemos as
identifica¸ c˜oes: x
1
= x, x
2
= v, f
1
(x, v) = v, f
2
(x, v) = [F
e
(x) − αv]/m, Γ
11
=
Γ
12
= 0, e Γ
22
= Γ = B/m
2
. A equa¸ c˜ao para a distribui¸ c˜ao de probabilidades
P(x, v, t) de x e v ´e pois

∂t
P = −v

∂x
P −
1
m
F
e
(x)

∂v
P +
α
m

∂v
(vP) +
Γ
2

2
∂v
2
P. (4.77)
Essa ´ ultima equa¸ c˜ao ´e denominada equa¸ c˜ao de Kramers.
Para caso de uma for¸ ca externa el´astica, F
e
(x) = −kx, a equa¸ c˜ao se torna

∂t
P = −v

∂x
P +ω
2
x

∂v
P +γ

∂v
(vP) +
Γ
2

2
∂v
2
P, (4.78)
onde ω
2
= k/m e γ = α/m.
A equa¸ c˜ao de Fokker-Planck pode ainda ser escrita na forma de uma equa¸ c˜ao
de continuidade

∂t
P = −
N

i=1

∂x
i
J
i
, (4.79)

77 Equa¸ c˜ao de Fokker-Planck
onde J
i
, a i-´esima componente da corrente de probabilidade, ´e dada por
J
i
= f
i
P −
1
2
N

j=1
Γ
ij

∂x
j
P. (4.80)
As solu¸ c˜oes da equa¸ c˜ao de Fokker-Planck devem ser determinadas de acordo
com as condi¸ c˜oes de contorno prefixadas. Vamos considerar aqui condi¸ c˜oes
de contorno tais que, nos pontos dessa superf´ıcie, a componente da corrente de
probabilidade normal a ela se anule. Al´em disso estaremos tratando de condi¸ c˜oes
de contorno naturais, ou seja, tais que o contorno se situa no infinito. Nesse caso
a distribui¸ c˜ao de probabilidade e suas derivadas devem se anular rapidamente
quando x
i
→∞ de modo que J
i
→0 nesse limite.
No regime estacion´ ario a densidade de probabilidade ´e independente do
tempo e satisfaz a equa¸ c˜ao

N

i=1

∂x
i
(f
i
P) +
1
2
N

i=1
N

j=1
Γ
ij

2
∂x
i
∂x
j
P = 0, (4.81)
que pode ser escrita na forma
N

i=1

∂x
i
J
i
= 0. (4.82)
No caso de uma ´ unica vari´avel, vimos que a corrente de probabilidade esta-
cion´aria deve ser constante, isto ´e, independente da posi¸ c˜ao, e que essa constante
deve ser nula. Para mais de uma vari´avel, entretanto, isso pode n˜ao acontecer.
O fato de a componente normal ser nula nos pontos da superficie de contorno
n˜ao ´e suficiente para garantir que a corrente seja nula em toda parte. De fato,
as correntes podem ser circulares e tangentes `a superf´ıcie de contorno.
Vamos examinar, em seguida, as condi¸ c˜oes que f
i
e Γ
ij
devem satisfazer para
que, no regime estacion´ ario, a corrente se anule em todos os pontos. Quando
a corrente ´e nula em todos os pontos, temos uma situa¸ c˜ao de equil´ıbrio ter-
modinˆ amico. Se, no regime estacion´ ario, J
i
= 0, ent˜ ao, a equa¸ c˜ao (4.80) nos
d´a
f
i
=
1
2
N

j=1
Γ
ij

∂x
j
lnP. (4.83)
Por conveniˆencia definimos uma matriz quadradada G cujos elementos s˜ ao
Γ
ij
e constru´ımos a grandeza F
i
dada por
F
i
= 2
N

k=1
(G
−1
)
ik
f
k
, (4.84)
78

Dinˆamica Estoc´astica e Irreversibilidade
onde denotamos por (G
−1
)
ij
os elementos da matriz inversa de G. A equa¸ c˜ao
(4.83) implica
F
i
=

∂x
i
lnP. (4.85)
Portanto, dessa equa¸ c˜ao resulta a condi¸ c˜ao procurada:

∂x
j
F
i
=

∂x
i
F
j
, (4.86)
que deve ser satisfeita para quaisquer pares i, j. Os estados estacion´ arios de
sistemas tais que f
i
e Γ
ij
satisfazem essa condi¸ c˜ao, s˜ ao estados de equil´ıbrio
termodinˆ amico, ou revers´ıveis. Sistemas que n˜ao obedecem essa condi¸ c˜ao s˜ ao
ditos irrevers´ıveis.
Se a condi¸ c˜ao de reversibilidade (4.86) for satisfeita, ent˜ ao F
i
deve ser o
gradiente de um potencial Φ(x
1
, x
2
, ..., x
N
):
F
i
= −

∂x
i
Φ. (4.87)
Determinando Φ, podemos escrever
ln P = −Φ + const (4.88)
ou ainda
P = Aexp¦−Φ¦, (4.89)
onde A ´e uma constante que deve ser determinada pela normaliza¸ cao de P.
Para o caso em que Γ
ij
= Γδ
ij
, temos F
i
= 2f
i
/Γ e a condi¸ c˜ao de reversibi-
lidade se escreve

∂x
j
f
i
=

∂x
i
f
j
(4.90)
para quaisquer pares i, j. Essa condi¸ c˜ao nos diz que a for¸ ca deve ser conservativa,
isto ´e, deve ser o gradiente de um potencial V (x
1
, x
2
, ..., x
N
):
f
i
= −

∂x
i
V. (4.91)
Nesse caso Φ = 2V/Γ e, portanto,
P = Aexp¦−
2
Γ
V ¦. (4.92)

79 Equa¸ c˜ao de Fokker-Planck
4.7 M
´
ETODO ESTOC
´
ASTICO DE LANGEVIN
Considere um sistema cujo estado microsc´ opico ´e definido pelo conjunto das va-
ri´aveis (x
1
, x
2
, ..., x
N
) e seja V (x
1
, x
2
, ..., x
N
) a energia associada a esse estado.
De acordo com a mecˆ anica estat´ıstica, a densidade de probabilidade do estado
(x
1
, x
2
, ..., x
N
) ´e dada por
P(x
1
, x
2
, ..., x
N
) =
1
Q
exp¦−
1
k
B
T
V (x
1
, x
2
, ..., x
N
)¦, (4.93)
onde Q ´e a constante de normaliza¸ c˜ao. A m´edia de uma fun¸ c˜ao de estado
F(x
1
, x
2
, ..., x
N
) ´e dada por
¸F) =
_
F(x
1
, x
2
, ..., x
N
)P(x
1
, x
2
, ..., x
N
)dx
1
dx
2
...dx
N
. (4.94)
Nesta se¸ c˜ao apresentamos um m´etodo num´erico de car´ ater estat´ıstico para a
estimativa de m´edias do tipo (4.94). O m´etodo usa a id´eia de que, para estimar
a m´edia de uma fun¸ c˜ao de estado, ´e suficiente escolher apenas alguns esta-
dos, desde que eles sejam os que mais caracterizam o sistema em considera¸ c˜ao.
Os estados mais caracter´ısticos s˜ ao aqueles que tˆem mais peso estat´ıstico que
no caso presente s˜ ao dados pela distribui¸ c˜ao de probabilidades (4.93). Assim,
para obter uma estimativa num´erica dessa m´edia basta gerar um seq¨ uˆencia de
L estados (x
(1)
1
, x
(1)
2
, ..., x
(1)
N
), (x
(2)
1
, x
(2)
2
, ..., x
(2)
N
), ..., (x
(L)
1
, x
(L)
2
, ..., x
(L)
N
) com a
probabilidade P(x
1
, x
2
, ..., x
N
). Se isso for feito uma estimativa F de ¸F) ser´a
ent˜ ao dada por
F =
1
L
L

ℓ=1
F(x
(ℓ)
1
, x
(ℓ)
2
, ..., x
(ℓ)
N
). (4.95)
O problema que devemos resolver em seguida ´e o de gerar estados (x
1
, x
2
, ..., x
N
)
com a probabilidade desejada.
Esse problema se resolve se usarmos a equa¸ c˜ao de Langevin (4.69), com f
i
definido por
f
i
(x
1
, x
2
, ..., x
N
) = −

∂x
i
V (x
1
, x
2
, ..., x
N
) (4.96)
e com Γ
i
= Γ = 2k
B
T. Se usarmos a equa¸ c˜ao de Langevin para gerar numerica-
mente uma trajet´ oria a partir de um estado inicial dado, os estados ser˜ao gerados
de acordo com a distribui¸ c˜ao de probabilidades P(x
1
, x
2
, ..., x
N
, t) dependente
do tempo e que satisfaz a equa¸ c˜ao de Fokker-Planck

∂t
P(x, t) = −
N

i=1

∂x
i
f
i
(x)P(x, t) +k
B
T
N

i=1

2
∂x
2
i
P(x, t). (4.97)
80

Dinˆamica Estoc´astica e Irreversibilidade
Para tempos longos os estados estar˜ao sendo gerados de acordo com a densidade
de probabilidade dada por (4.93) pois essa distribui¸ c˜ao ´e a solu¸ c˜ao estacion´ aria
da equa¸ c˜ao de Fokker-Planck (4.97). Assim, se descartarmos os estados inici-
ais, os estados seguintes estar˜ao sendo gerados de acordo com a probabilidade
desejada. Note que nesse m´etodo n˜ao ´e necess´ario determinar a constante de
normaliza¸ c˜ao Q.
Para a efetiva utiliza¸ c˜ao do m´etodo estoc´astico de Langevin, devemos inici-
almente discretizar o tempo. Dessa forma escrevemos a equa¸ c˜ao de Langevin
na forma
x
(ℓ+1)
i
= x
(ℓ)
i
+τf
i
(x
(ℓ)
1
, x
(ℓ)
2
, ..., x
(ℓ)
N
) +
_
2τk
B

(ℓ)
i
, (4.98)
onde as vari´aveis aleat´ orias ξ
(ℓ)
i
s˜ ao independentes e possuem as propriedades
¸ξ
(ℓ)
i
) = 0 e ¸[ξ
(ℓ)
i
]
2
) = 1, (4.99)
isto ´e, tˆem m´edia nula e variˆancia igual a um.
Partimos de um estado inicial (x
(0)
1
, x
(0)
2
, ..., x
(0)
N
) e geramos os estados se-
guintes de acordo com a equa¸ c˜ao (4.98). Notar que em cada passo temporal
devemos gerar N n´ umeros aleat´ orios independentes, um para cada valor de i.
Podemos, por exemplo, gerar um n´ umero que tome os valores −1 ou +1 com
igual probabilidade. Dessa forma as propriedades (4.99) estar˜ao satisfeitas.
Exemplo 9. Considere uma cadeia linear de N s´ıtios onde a cada s´ıtio
est´ a associado uma vari´avel ale´ atoria x
i
. Suponha que a energia (potencial)
V (x
1
, x
2
, ..., x
N
) do estado (x
1
, x
2
, ..., x
N
) seja dada por
V = −
N

i=1
(
a
2
x
2
i

b
4
x
4
i
) −c
N

i=1
x
i
x
i+1
, (4.100)
onde a, b, e c s˜ ao parˆ ametros positivos, e usamos condi¸ c˜oes peri´ odicas de con-
torno, isto ´e, x
N+1
= x
1
. A for¸ ca f
i
ser´a pois
f
i
= ax
i
−bx
3
i
+c(x
i−1
+x
i+1
), (4.101)
de modo que a equa¸ c˜ao de Langevin discretizada ser´a
x

i
= (1 +τa)x
i
−τbx
3
i
+τc(x
i−1
+x
i+1
) +
_
2τk
B

i
, (4.102)
onde (x
1
, x
2
, ..., x
N
) ´e o estado no instante t e (x

1
, x

2
, ..., x

N
) ´e o estado no
instante t +τ.

81 Equa¸ c˜ao de Fokker-Planck
BIBLIOGRAFIA
Chandrasekhar, S. 1943. ”Stochastic problems in physics and astronomy”.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. ”Random walk and the theory of Brownian motion”. American
Mathematical Monthly, 54, 369.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Nicolis G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Oliveira, M. J. de 1996. ”Numerical stochastic methods in statistical mecha-
nics”. Int. J. Mod. Phys., 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Tom´ e T. & Oliveira, M. J. de 1997. ”Stochastic mechanics of nonequili-
brium systems”. Braz. J. Phys., 27, 525.
Ulenbeck G. E. & Ornstein, L. S. 1930. ”On the theory of the Brownian
motion”. Phys. Rev. , 36, 823.
EXERC
´
ICIOS
1. Determine a solu¸ c˜ao geral da equa¸ c˜ao de Smoluchowski
∂P
∂t
= γ

∂x
(xP) +
Γ
2

2
P
∂x
2
correspondente a f(x) = −γx, supondo que ela seja da forma
P(x, t) =
1
_
2πb(t)
exp¦−
[x −a(t)]
2
2b(t)
¦,
onde a(t) e b(t) s˜ ao fun¸ c˜oes de t, somente. Construa equa¸ c˜oes diferenciais
para a(t) e para b(t) e as integre.
82

Dinˆamica Estoc´astica e Irreversibilidade
2. Determine as autofun¸ c˜oes e os autovalores do operador de evolu¸ c˜ao J
dado por
Jφ = −
d
dx
[f(x)φ(x)] +
Γ
2
d
2
dx
2
φ(x)
correspondente a uma for¸ ca f(x) dada por
f(x) =
_
¸
_
¸
_
−α, x > 0,
0, x = 0,
α, x < 0,
onde α ´e uma constante positiva.
3. Mostre que a solu¸ c˜ao estacion´ aria da equa¸ c˜ao de Kramers (4.78) ´e do tipo
P = Aexp¦−ax
2
/2−bv
2
/2¦. Determine as constantes a e b e normalize P
para achar a constante A. Note que a densidade de corrente n˜ao se anula!
4. Mostre que a solu¸ c˜ao dependente do tempo da equa¸ c˜ao de Kramers (4.78)
´e do tipo P = Aexp¦−ax
2
/2 − bv
2
/2 − cxv¦, onde a, b, c e A dependem
do tempo. Demonstre que para essa densidade de probabilidades,
¸x
2
) =
b
ab −c
2
, ¸y
2
) =
a
ab −c
2
e ¸xy) =
−c
ab −c
2
.
Para determinar a, b e c como fun¸ c˜oes do tempo, inverta essas equa¸ c˜oes
para achar a, b e c em termos de ¸x
2
), ¸y
2
) e ¸xv). Em seguida use as
express˜oes temporais dessas ´ ultimas grandezas obtidas no exerc´ıcio 3 do
cap´ıtulo 3.
5. Simule a trajet´ oria de uma part´ıcula que obede¸ ca a equa¸ c˜ao de Langevin
cuja for¸ ca f(x) = −V (x) onde
V (x) = bx
2
(x
2
−a
2
),
com a > 0. Obtenha o histograma de x, que ´e uma estimativa num´erica
da pro- babilidade estacion´ aria, para os seguintes valores dos parˆ ametros:
a = 1, b = 1, τ = 0.01 e Γ = 0.1, 0.2, 0.5, 1, 2, e 5. Fa¸ ca tamb´em um
histograma do tempo que a part´ıcula permanece em cada uma das regi˜ oes
x > 0 e x < 0. Obtenha o tempo m´edio de permanˆencia em cada uma
dessas regi˜ oes.
6. Considere uma cadeia linear de N s´ıtios. A cada s´ıtio i est´ a associada
uma vari´avel real x
i
. A energia do estado (x
1
, x
2
, ..., x
N
) ´e dada por
V = −
N

i=1
(
a
2
x
2
i

b
4
x
4
i
) −c
N

i=1
x
i
x
i+1
,

83 Equa¸ c˜ao de Fokker-Planck
onde a, b, e c s˜ ao constante positivas, e consideramos condi¸ c˜oes de contorno
pe- ri´odicas, isto ´e, x
N+1
= x
1
. Use o met´odo estoc´astico de Langevin para
obter um histograma da vari´avel m definida por m = (x
1
+x
2
+...+x
N
)/N,
isto ´e, a densidade de probabilidade de m. Repita a simula¸ c˜ao para outras
temperaturas.
5
Cadeias de Markov
5.1 PROCESSOS ESTOC
´
ASTICOS
Uma vari´avel aleat´ oria que depende de um parˆ ametro t ´e chamada de fun¸ c˜ao
aleat´ oria ou, se t significa o tempo, de vari´avel estoc´astica. Consideraremos aqui
processos estoc´asticos em que o tempo possa ser discretizado e que a vari´avel
estoc´astica tamb´em seja discretizada. Suponha que a vari´avel estoc´astica x
t
assuma valores inteiros e t os valores 0, 1, 2, 3, ... Um processo estoc´astico fica
completamente definido at´e o instante ℓ pela distribui¸ c˜ao de probabilidade con-
junta
T

(n
0
, n
1
, n
2
, ..., n

) (5.1)
de que x
t
tome o valor n
0
no instante t = 0, o valor n
1
no instante t = 1, o valor
n
2
no instante t = 2, ..., e o valor n

no instante t = ℓ.
Em seguida, considere a probabilidade condicional
T
ℓ+1
(n
ℓ+1
[n
0
, n
1
, n
2
, ..., n

) (5.2)
de que a vari´avel estoc´astica x
t
tome o valor n
ℓ+1
no instante t = ℓ + 1, dado
que ela tenha tomado o valor n
0
no instante t = 0, o valor n
1
no instante t = 1,
o valor n
2
no instante t = 2, ..., e o valor n

no instante t = ℓ. Se ela for igual `a
86

Dinˆamica Estoc´astica e Irreversibilidade
probabilidade condicional
T
ℓ+1
(n
ℓ+1
[n

) (5.3)
de que a vari´avel estoc´astica x
t
tome o valor n
ℓ+1
no instante t = ℓ + 1, dado
que ela tenha tomado o valor n

no instante t = ℓ, ent˜ ao o processo estoc´astico ´e
um processo markoviano. Em outros termos, um processo markoviano ´e aquele
em que a probabilidade condicional de x
t
tomar um determinado valor num de-
terminado instante depende somente do valor que ela tenha tomado no instante
anterior.
A partir da defini¸ c˜ao de probabilidade condicional, podemos obter a seguinte
f´ormula:
T

(n
0
, n
1
, n
2
, ..., n

) = T

(n

[n
ℓ−1
)...T
2
(n
2
[n
1
)T
1
(n
1
[n
0
)T
0
(n
0
). (5.4)
Vemos pois que o processo markoviano fica completamente definido pelas pro-
babiliddes condicionais dadas por (5.3) e pela probabilidade inicial T
0
(n
0
).
Vamos definir agora a probabilidade P

(n

) de que a vari´avel x
t
tome o valor
n

no instante t = ℓ independentemente de quais valores ela tenha tomado nos
instantes anteriores. Ela ´e dada por
P

(n

) =

T

(n
0
, n
1
, n
2
, ..., n

), (5.5)
onde a soma se estende sobre n
0
, n
1
, ..., n
ℓ−1
mas n˜ao sobre n

. Se usarmos a
equa¸ c˜ao (5.4), obtemos a seguinte equa¸ c˜ao de recorrˆencia:
P

(n

) =

n
ℓ−1
T

(n

[n
ℓ−1
)P
ℓ−1
(n
ℓ−1
). (5.6)
Portanto, dado P
0
(n
0
), podemos obter P

(n

) em qualquer instante.
A probabilidade condicional T
ℓ+1
(n
ℓ+1
[n

) ´e interpretada como a probabi-
lidade de transi¸ c˜ao do estado n

para o estado n
ℓ+1
. Em princ´ıpio ela pode
depender do ins- tante considerado. Isto ´e, dados dois estados, a probabilidade
de transi¸ c˜ao entre eles poderia ser diferente para cada instante de tempo. En-
tretanto, consideraremos somente processos markovianos cujas probabilidades
de transi¸ c˜ao n˜ao variam no tempo. Nesse caso, escrevemos, pois,
T
ℓ+1
(n
ℓ+1
[n

) = T(n
ℓ+1
, n

) (5.7)
de modo que a equa¸ c˜ao (5.6) se torna
P

(n

) =

n
ℓ−1
T(n

, n
ℓ−1
)P
ℓ−1
(n
ℓ−1
). (5.8)

87 Cadeias de Markov
5.2 MATRIZ ESTOC
´
ASTICA
Vimos que um processo estoc´astico markoviano fica completamente definido
pela probabilidade de transi¸ c˜ao e pela probabilidade inicial. Vamos escrever a
equa¸ c˜ao anterior na forma simplificada
P

(n) =

m
T(n, m)P
ℓ−1
(m) (5.9)
e interpretar T(n, m) como elemento de uma matriz T. Ela deve possuir as
seguintes propriedades:
T(n, m) ≥ 0, (5.10)
pois T(n, m) ´e uma probabilidade (condicional) e

n
T(n, m) = 1, (5.11)
pois ela deve estar normalizada. Ou seja, os elementos da matriz T devem ser
n˜ao negativos e a soma dos elementos de uma coluna qualquer deve ser igual
a unidade. Note que a somat´oria ´e feita sobre a primeira vari´avel, que denota
o ´ındice de linha da matriz. Qualquer matriz quadrada que possua essas duas
propriedades ´e chamada de matriz estoc´astica.
Se definirmos a matriz P

como a matriz coluna cujos elementos s˜ ao P

(n),
ent˜ ao a equa¸ c˜ao (5.9) pode ser escrita na forma de um produto de matrizes, isto
´e,
P

= TP
ℓ−1
. (5.12)
Dessa forma, dada a matriz coluna inicial P
0
, obtemos P

atrav´es de
P

= T

P
0
(5.13)
e o problema de determinar P

(n) se reduz ao c´alculo da ℓ-´esima potˆencia da
matriz estoc´astica T. Essa equa¸ c˜ao pode ser escrita na forma
P

(n) =

m
T

(n, m)P
0
(m), (5.14)
onde o elemento de matriz T

(n, m) ´e interpretado como a probabilidade de
transi¸ c˜ao do estado m para o estado n em ℓ passos, ou seja, ´e a probabilidade
de a vari´avel x
t
tomar o valor n num certo instante t dado que ela tenha tomado
o valor m num instante anterior t −ℓ.
88

Dinˆamica Estoc´astica e Irreversibilidade
5.3 TEOREMA DE PERRON-FROBENIUS
O problema fundamental dos processos markovianos ´e determinar quais s˜ ao as
propriedades da matriz estoc´astica T para que
lim
ℓ→∞
P

= P, (5.15)
onde P ´e a solu¸ c˜ao estacion´ aria, isto ´e, satisfaz a equa¸ c˜ao
TP = P. (5.16)
Com essa finalidade, apresentamos algumas propriedades gerais da matriz es-
toc´astica e algumas defini¸ c˜oes.
1) A matriz estoc´astica possui um autovalor igual `a unidade.
2) Qualquer autovalor λ de T satisfaz a condi¸ c˜ao [λ[ ≤ 1, isto ´e, no plano
complexo, os autovalores se localizam no disco de raio igual `a unidade.
3) Ao autovalor λ = 1 corresponde um autovetor com componentes n˜ao
negativas.
Notar que em geral os autovalores podem ser complexos e que ao autovalor
λ = 1 pode corresponder mais de um autovetor, isto ´e, o autovalor λ = 1 pode
ser degenerado.
Defini¸ c˜ ao. Uma matriz estoc´astica ´e irredut´ıvel se para cada par (m, n)
existe uma potˆencia ℓ tal que T

(m, n) > 0. Isto significa que a probabilidade
de atingir um determinado estado a partir de um outro qualquer ´e n˜ao nula. O
expoente ℓ n˜ao precisa ser necessariamente o mesmo para todos os pares.
4) Teorema de Perron-Frobenius. O autovalor λ = 1 de uma matriz irre-
dut´ıvel ´e n˜ao degenerado. Al´em disso o autovetor correspondente possui todas
as componentes estritamente positivas.
Esse teorema afirma que a solu¸ c˜ao estacion´ aria da equa¸ c˜ao (5.16) ´e ´ unica e
que al´em disso P(n) > 0.
´
E importante notar que ´e poss´ıvel haver autovalores
tais que [λ[ = 1 al´em do autovalor λ = 1. Isso pode ocorrer com as matrizes
chamadas c´ıclicas.
Defini¸ c˜ ao. Uma matriz estoc´astica ´e regular se todos os elementos de alguma
potˆencia de T s˜ ao estritamente positivos. Ou seja, se existe ℓ tal que T

(n, m) >
0 para quaisquer n e m. Note que todos os elementos devem ser estritamente
positivos para o mesmo ℓ. Matriz regular ´e equivalente a matriz irredut´ıvel e
aperi´ odica.
5) Com exce¸ c˜ao do autovalor λ = 1, todos os autovalores de uma matriz
regular s˜ ao, em m´odulo, estritamente menores do que a unidade, isto ´e, [λ[ < 1.

89 Cadeias de Markov
6) Quando ℓ → ∞, T

converge para uma matriz cujas colunas s˜ ao todas
iguais a P. Da´ı, conclui-se que P

= T

P
0
converge para P qualquer que seja
P
0
.
Para que o limite de P

exista quando ℓ → ∞, ´e necess´ario que n˜ao haja
nenhum autovalor complexo sobre o c´ırculo unit´ario, exceto λ = 1. Entretanto,
para que o limite seja independente da probabilidade inicial, a probabilidade
estacion´ aria deve ser ´ unica, isto ´e, o autovalor λ = 1 deve ser n˜ao degenerado.
Isso ocorre com as matrizes regulares. Entretanto, pode haver matrizes n˜ao
regulares que satisfa¸ cam essa propriedade. Um exemplo de uma matriz n˜ao
regular que tem essa propriedade ´e aquela correspondente a um sistema com
um estado absorvente.
5.4 M
´
ETODO ALG
´
EBRICO
Dada a matriz de transi¸ c˜ao T e a probabilidade inicial P
0
, podemos obter P

a
partir de P

= T

P
0
. Para isso devemos determinar T

, o que faremos atrav´es
do m´etodo alg´ebrico que consiste em determinar os autovetores e autovalores de
T, caso eles existam.
Vamos considerar o caso em que os autovalores de T sejam n˜ao degenerados.
Como T ´e em geral n˜ao sim´etrica, devemos considerar que os autovetores `a
direita e `a esquerda sejam em geral distintos. Sejam ¦ψ
k
¦ e ¦φ
k
¦ os autovetores
`a direita e `a esquerda, respectivamente, e ¦λ
k
¦ os correspondentes autovalores,
isto ´e,

k
= λ
k
ψ
k
(5.17)
e
φ
k
T = λ
k
φ
k
. (5.18)
Note que ψ
k
´e uma matriz coluna enquanto que φ
k
´e uma matriz linha. Os
autovetores formam um conjunto completo ortonormalizado de modo que
φ
j
ψ
k
= δ
jk
(5.19)
e

k
ψ
k
φ
k
= I, (5.20)
onde I ´e a matriz identidade.
´
E importante notar que P ´e um autovetor `a direita com autovalor igual `a
unidade. Escrevemos pois ψ
1
= P. O correspondente autovetor `a esquerda φ
1
´e
90

Dinˆamica Estoc´astica e Irreversibilidade
a matriz linha que possui todas as entradas iguais a unidade, isto ´e, φ
1
(n) = 1
para qualquer n. Realmente, a equa¸ c˜ao

n
T(n, m) = 1 (5.21)
escrita na forma

n
φ
1
(n)T(n, m) = φ
1
(m) (5.22)
implica φ
1
T = φ
1
. A normaliza¸ c˜ao de P = ψ
1
nos d´a φ
1
ψ
1
= 1.
Considere agora a potencia T

da matriz T que escrevemos na forma
T

= T

I = T

k
ψ
k
φ
k
=

k
T

ψ
k
φ
k
=

k
λ

k
ψ
k
φ
k
, (5.23)
onde substitu´ımos a matriz identidade pelo lado esquerdo da equa¸ c˜ao (5.20) e
usamos a identidade T

ψ
k
= λ

k
ψ
k
. A partir de
T

=

k
λ

k
ψ
k
φ
k
(5.24)
obtemos:
P

= T

P
0
=

k
λ

k
ψ
k

k
P
0
) (5.25)
ou ainda
P

= P +

k=1
λ

k
ψ
k

k
P
0
), (5.26)
pois λ
1
= 1, ψ
1
= P e φ
1
P
0
= 1 j´a que P
0
est´ a normalizado. Como os autovalores
satisfazem a desigualdade [λ
k
[ < 1 para k ,= 1, ent˜ ao [λ
k
[

→0 quando ℓ →∞
de modo que todas as parcelas da somat´oria anulam. Logo P

→ P quando
ℓ →∞, qualquer que seja P
0
.
Exemplo 1. Considere a matriz estoc´astica 2 2 dada por
T =
_
1 −b q
b 1 −q
_
. (5.27)
Os autovetores e autovalores s˜ ao
φ
1
=
_
1 1
_
, ψ
1
=
1
q +b
_
q
b
_
, λ
1
= 1 (5.28)
e
φ
2
=
1
q +b
_
b −q
_
, ψ
2
=
_
1
−1
_
, λ
2
= 1 −b −q. (5.29)

91 Cadeias de Markov
Assim obtemos:
T

= λ

1
φ
1
ψ
1


2
φ
2
ψ
2
(5.30)
ou seja,
T

=
1
q +b
_
q q
b b
_
+
(1 −q −b)

q +b
_
b −q
−b q
_
. (5.31)
Para uma probabilidade inicial
P
0
=
_
p
1
p
2
_
(5.32)
obtemos:
P

= T

P
0
=
1
q +b
_
q
b
_
+
(1 −q −b)

q +b
_
bp
1
−qp
2
−bp
1
+qp
2
_
(5.33)
Se q + b ,= 0 ent˜ ao, no limite ℓ → ∞, P

se aproxima da probabilidade esta-
cion´aria ψ
1
independentemente da condi¸ c˜ao inicial.
5.5 REVERSIBILIDADE MICROSC
´
OPICA
A probabilidade estacion´ aria P(n) satisfaz a equa¸ c˜ao
P(n) =

m
T(n, m)P(m), (5.34)
que podemos escrever na forma

m
¦T(n, m)P(m) −T(m, n)P(n)¦ = 0, (5.35)
pois

m
T(m, n) = 1. Se a solu¸ c˜ao da equa¸ c˜ao (5.35) ´e tal que cada parcela
da somat´oria se anula, ent˜ ao a solu¸ c˜ao estacion´ aria satisfaz o balanceamento
detalhado ou a condi¸ c˜ao de reversibilidade microsc´ opica. Nesse caso dizemos
que P(n) ´e a probabilidade de equil´ıbrio termodinˆ amico. Entretanto, a reversi-
bilidade microsc´ opica ´e uma propriedade da matriz estoc´astica e, portanto, do
processo estoc´astico que estamos considerando. Alguns processos estoc´asticos
possuem reversibilidade microsc´ opica, outros n˜ao.
Suponha que o processo markoviano satisfa¸ ca o balanceamento detalhado
T(n, m)P(m) = T(m, n)P(n) (5.36)
para qualquer par m, n de estados. O lado direito ´e interpretado como a proba-
bilidade de transi¸ c˜ao de m para n, enquanto que o lado direito ´e a probabilidade
92

Dinˆamica Estoc´astica e Irreversibilidade
de transi¸ c˜ao de n para m. Em outras palavras, h´a a ocorrˆencia da reversibilidade
microsc´ opica. Em princ´ıpio, ´e poss´ıvel saber se h´a reversibilidade microsc´ opica
sem determinar a probabilidade estacion´ aria P(n). Considere trˆes estados quais-
quer n, n

, e n
′′
. Na situa¸ c˜ao estacion´ aria, a probabilidade de ocorrer a trajet´ oria
n →n

→n
′′
→n ´e dada por
T(n, n
′′
)T(n
′′
, n

)T(n

, n)P(n) (5.37)
enquanto que a probabilidade de ocorrer a trajet´ oria reversa n →n
′′
→n

→n
´e dada por
T(n, n

)T(n

, n
′′
)T(n
′′
, n)P(n). (5.38)
Havendo reversibilidade microsc´ opica, essas duas express˜oes devem ser iguais o
que implica
T(n, n

)T(n

, n
′′
)T(n
′′
, n) = T(n, n
′′
)T(n
′′
, n

)T(n

, n). (5.39)
Portanto, um processo com reversibilidade microsc´ opica deve satisfazer essa
equa¸ c˜ao para quaisquer triplas de estados. Express˜ oes an´alogas tamb´em podem
ser escritas para quatro ou mais estados.
Uma propriedade importante das matrizes estoc´asticas que possuem reversi-
bilidade microsc´ opica ´e que seus autovalores s˜ ao todos reais. Definimos a matriz
´
T por
´
T(m, n) =
1
χ(m)
T(m, n)χ(n), (5.40)
onde χ(n) =
_
P(n). Se dividirmos ambos os membros da equa¸ c˜ao (5.36) por
χ(n)χ(m), vemos que a matriz
´
T ´e sim´etrica. Sendo sim´etrica (hermitiana), ela
possui autovalores reais. Basta agora mostrar que
´
T possui os mesmos autovalo-
res de T. Realmente, seja ψ
k
um autovetor de T e λ
k
o autovalor correspondente,
isto ´e

n
T(m, n)ψ
k
(n) = λ
k
ψ
k
(m). (5.41)
Dividindo ambos os membros por χ(m), obtemos:

n
´
T(m, n)
1
χ(n)
ψ
k
(n) = λ
k
1
χ(m)
ψ
k
(m). (5.42)
Portanto, ψ
k
(n)/χ(n) ´e autovetor de
´
T com o mesmo autovalor λ
k
de T.

93 Cadeias de Markov
5.6 ENTROPIA
Em seguida vamos mostrar, para o caso em que a probabilidade estacion´ aria sa-
tisfaz o balanceamento detalhado, que a fun¸ c˜ao temporal H

definida por
H

=

n
P

(n) ln
P

(n)
P(n)
(5.43)
´e uma fun¸ c˜ao decrescente no tempo, isto ´e, vamos mostrar que H
ℓ+1
≤ H

.
Seja f(x) uma fun¸ c˜ao convexa, isto ´e, que possua a propriedade
f(p
1
x
1
+p
2
x
2
) ≤ p
1
f(x
1
) +p
2
f(x
2
) (5.44)
para quaisquer valores de x
1
e x
2
, onde p
1
≥ 0, p
2
≥ 0 e p
1
+ p
2
= 1. Essa
propriedade, v´ alida para dois pontos, pode ser generalizada para um n´ umero
qualquer de pontos
f(
N

m=1
p
m
x
m
) ≤
N

m=1
p
m
f(x
m
), (5.45)
onde
p
m
≥ 0 e
N

m=1
p
m
= 1. (5.46)
A partir da equa¸ c˜ao de evolu¸ c˜ao para P

(n) e usando a condi¸ c˜ao de balan-
ceamento detalhado (5.36), obtemos:
P
ℓ+1
(n)
P(n)
=

m
T(m, n)
P

(m)
P(m)
. (5.47)
Agora, usamos a equa¸ c˜ao (5.45) com p
m
= T(m, n) e x
m
= P

(m)/P(m) para
concluir que
f(
P
ℓ+1
(n)
P(n)
) ≤

m
T(m, n)f(
P

(m)
P(m)
). (5.48)
Multiplicando ambos os lados por P(n) e somando em n, obtemos:

n
P(n)f(
P
ℓ+1
(n)
P(n)
) ≤

m
P(m)f(
P

(m)
P(m)
). (5.49)
Para o caso em que f(x) = xln x, obtemos:

n
P
ℓ+1
(n) ln
P
ℓ+1
(n)
P(n)

m
P

(m) ln
P

(m)
P(m)
(5.50)
ou seja H
ℓ+1
≤ H

. Se definirmos a entropia S

por S

= −kH

+ C onde k e
C s˜ ao constantes, vemos que S
ℓ+1
≥ S

, ou seja, a entropia ´e fun¸ c˜ao temporal
monotˆonica crescente.
94

Dinˆamica Estoc´astica e Irreversibilidade
5.7 MODELO DE EHRENFEST
Considere duas urnas A e B e um certo n´ umero N de bolas numeradas de 1 at´e
N. Inicialmente, as bolas s˜ ao colocadas na urna A. Em seguida, uma das bolas ´e
sorteada e transferida para a outra urna. Esse procedimento ´e ent˜ ao repetido a
cada intervalo de tempo. Desejamos determinar a probabilidade P

(n) de haver
n bolas no instante ℓ.
Suponha que num certo instante a urna A tenha n bolas. A probabilidade de
o n´ umero delas diminuir para n−1 ser´a igual `a probabilidade de sortearmos umas
das bolas da urna A (que ser´a retirada de A e transferida para B), ou seja, n/N.
Da mesma forma, a probabilidade de o n´ umero de bolas da urna A aumentar
para n + 1 ser´a igual `a probabilidade de sortearmos uma das bolas da urna B
(que ser´a transferida para A), ou seja, (N −n)/N. Portanto, a probabilidade de
transi¸ c˜ao T(m, n) de n para m ser´a
T(n −1, n) =
n
N
n = 1, 2, ..., N −1, N (5.51)
e
T(n + 1, n) =
N −n
N
n = 0, 1, ..., N −1. (5.52)
Em outros casos, T(m, n) = 0.
Aqui, entretanto, vamos considerar o caso mais geral em que permitimos
que o n´ umero de bolas da urna A possa n˜ao se alterar. Vamos supor que a
probabilidade de que o n´ umero n˜ao se altere seja p. Nesse caso temos pois
T(n −1, n) = q
n
N
, n = 1, 2, ..., N −1, N, (5.53)
T(n, n) = p, n = 0, 1, 2, ..., N −1, N, (5.54)
e
T(n + 1, n) = q
N −n
N
, n = 1, 2, ..., N −1, N, (5.55)
onde q = 1 −p. O modelo original de Ehrenfest ´e recuperado quando p = 0.
Substituindo T(m, n) na equa¸ c˜ao de evolu¸ c˜ao temporal
P
ℓ+1
(m) =
N

n=0
T(m, n)P

(n) (5.56)
obtemos:
P
ℓ+1
(n) = q(1 −
n −1
N
)P

(n −1) +pP

(n) +q(
n + 1
N
)P

(n + 1), (5.57)
equa¸ c˜ao que ´e valida para n = 0, 1, 2, ..., N, desde que coloquemos P

(N+1) = 0
e P

(−1) = 0. Essa equa¸ c˜ao ser´a resolvida para a condi¸ c˜ao inicial P
0
(n) = δ
n,N
que corresponde a ter todas as bolas na urna A.

95 Cadeias de Markov
A probabilidade estacion´ aria P(n) satisfaz a equa¸ c˜ao
P(n) = (1 −
n −1
N
)P(n −1) + (
n + 1
N
)P(n + 1) (5.58)
cuja solu¸ c˜ao ´e
P(n) = 2
−N
_
N
n
_
. (5.59)
´
E f´acil verificar que P(n) satisfaz a condi¸ c˜ao de balanceamento detalhado (5.36).
Portanto o modelo de Ehrenfest possui reversibilidade microsc´ opica.
Antes de determinar P

(n), vamos construir a equa¸ c˜ao para a evolu¸ c˜ao tem-
poral do n´ umero m´edio de bolas na urna A dado por
X

=
N

n=0
nP

(n). (5.60)
A partir da equa¸ c˜ao (5.57), obtemos:
X
ℓ+1
= X

+q(1 −
2
N
X

), (5.61)
que deve ser resolvido com a condi¸ c˜ao inicial X
0
= N. A solu¸ c˜ao ´e
X

=
N
2
+
N
2
(1 −
2
N
q)

. (5.62)
Portanto, X

aproxima-se exponencialmente da solu¸ c˜ao estcion´aria N/2. Escre-
vendo
X

=
N
2
+
N
2
e
−αℓ
, (5.63)
vemos que α = −ln(1 −2q/N).
Da mesma maneira, podemos determinar o segundo momento definido por
Y

=
N

n=0
n
2
P

(n). (5.64)
A evolu¸ c˜ao temporal do segundo momento ´e dada por
Y
ℓ+1
= (1 −
4
N
q)Y

+ 2qX

+q (5.65)
que deve ser resolvida com a condi¸ c˜ao inicial Y
0
= N
2
. Usando a solu¸ c˜ao de X

,
obtemos:
Y

=
N
2
4
+
N
4
+
N
2
2
(1 −
2
N
q)

. (5.66)
A partir dos resultados anteriores obtemos a variˆancia
B

= Y

−X
2

=
N
4

N
4
(1 −
2
N
q)

, (5.67)
96

Dinˆamica Estoc´astica e Irreversibilidade
que tamb´em se aproxima de seu valor estacion´ ario N/4 de forma exponencial,
com o mesmo expoente α.
Em seguida, vamos obter a solu¸ c˜ao detalhada do modelo de Ehrenfest de-
finido pela matriz dada pelas equa¸ c˜oes (5.53), (5.54) e (5.55). Considere a
equa¸ c˜ao de autovetores `a direita
N

n=0
T(m, n)ψ(n) = λψ(m) (5.68)
ou ainda
q(1 −
n −1
N
)ψ(n −1) +pψ(n) +q(
n + 1
N
)ψ(n + 1) = λψ(n), (5.69)
v´ alida para n = 0, 1, 2, ..., N, desde que coloquemos ψ(−1) = 0 e ψ(N +1) = 0.
Defina em seguida a fun¸ c˜ao f(x) por
f(x) =
N

n=0
ψ(n)x
n
(5.70)
que ´e um polinˆ omio de grau N. Multiplicando ambos os membros da equa¸ c˜ao
(5.69) por x
n
e somando em n, conclu´ımos que f(x) deve satisfazer a equa¸ c˜ao
q(1 −x
2
)f

(x) = N(λ −p −qx)f(x) (5.71)
cuja solu¸ c˜ao ´e
f(x) = A(1 +x)
N−k
(1 −x)
k
, (5.72)
onde A ´e uma constante e k = −N(λ −1)/2q.
Como a fun¸ c˜ao f(x) deve ser um polinˆ omio de grau N, segue-se que k tem
que ser um n´ umero inteiro maior ou igual a zero e menor ou igual a N. Portanto,
os autovalores s˜ ao dados por
λ
k
= 1 −
2q
N
k com k = 0, 1, 2, ..., N. (5.73)
A cada autovalor λ
k
corresponde um autovetor ψ
k
cujos elementos s˜ ao os coe-
ficientes de f
k
(x), dado por
f
k
(x) =
N

n=0
ψ
k
(n)x
n
. (5.74)
Como o autovetor ψ
0
deve ser identificado com o vetor probabilidade esta-
cion´aria P, que est´ a normalizado, ent˜ ao devemos ter f
0
(1) = 1 de onde obtemos
A = 2
−N
. Assim
f
k
(x) = 2
−N
(1 +x)
N−k
(1 −x)
k
, (5.75)

97 Cadeias de Markov
que ´e a fun¸ c˜ao geratriz dos autovetores de T. Em particular f
0
(x) = 2
−N
(1+x)
N
cuja expans˜ao d´a a distribui¸ c˜ao estacion´ aria P(n) mostrada pela equa¸ c˜ao (5.59).
Usando as rela¸ c˜oes (5.19) e (5.20) entre os autovetores `a direita ψ
k
e `a
esquerda φ
k
, podemos obter a seguinte rela¸ c˜ao:
φ
k
(n) = 2
N
ψ
n
(k). (5.76)
Notar a troca entre k e n.
Vamos supor que inicialmente todas as bolas estejam na urna A. Ent˜ ao,
P
0
(n) = δ
nN
, de modo que
P

(n) =
N

m=0
T

(n, m)P
0
(m) = T

(n, N) (5.77)
ou, usando o teorema espectral (5.24),
P

(n) =
N

k=0
λ

k
ψ
k
(n)φ
k
(N). (5.78)
Se quisermos determinar ¸x
n
), multiplicamos essa equa¸ c˜ao por x
n
, somamos em
n e usamos a fun¸ c˜ao geratriz. O resultado ´e
¸x
n
) =
N

n=0
x
n
P

(n) =
N

k=0
λ

k
f
k
(x)φ
k
(N). (5.79)
Usando o resultado φ
k
(N) = (−1)
k
(
N
k
) e a equa¸ c˜ao (5.75), obtemos:
¸x
n
) = 2
−N
(1 +x)
N
+
N

k=1
λ

k
(−1)
k
(
N
k
)2
−N
(1 +x)
N−k
(1 −x)
k
. (5.80)
Derivando essa equa¸ c˜ao com rela¸ c˜ao a x e fazendo x = 1, obtemos
¸n) =
N
2
+
N
2
λ

1
=
N
2
+
N
2
(1 −
2
N
q)

(5.81)
que ´e o resultado obtido anteriormente. Da mesma forma podemos obter outros
momentos.
Suponha que estejamos no estado estacion´ ario e que no instante ℓ haja m
bolas na urna A. A probabilidade de haver m−1 bolas na urna A no instante
ℓ −1 e o mesmo n´ umero de bolas no instante ℓ + 1 ´e dada por
P
−−
=
T(n −1, n)T(n, n −1)P(n −1)
P(n)
=
n
2
N
2
. (5.82)
98

Dinˆamica Estoc´astica e Irreversibilidade
Da mesma forma a probabilidade de haver n − 1 bolas na urna A no instante
ℓ −1 e n + 1 no instante posterior ℓ + 1 ´e dada por
P
−+
=
T(n + 1, n)T(n, n −1)P(n −1)
P(n)
=
n
N
(1 −
n
N
). (5.83)
A probabilidade de haver n + 1 bolas na urna A no instante ℓ − 1 e n − 1 no
instante ℓ + 1 ´e
P
+−
=
T(n −1, n)T(n, n + 1)P(n + 1)
P(n)
=
n
N
(1 −
n
N
). (5.84)
Finalmente, a probabilidade de haver n +1 bolas na urna A no instante ℓ −1 e
o mesmo n´ umero de bolas no instante ℓ + 1 ´e dado por
P
++
=
T(n + 1, n)T(n, n + 1)P(n + 1)
P(n)
= (1 −
n
N
)
2
. (5.85)
Portanto, se n for pr´oximo de N, a maior dessas quatro probabilidades ser´a
P
−−
. Isso tem o seguinte significado. Fa¸ ca uma s´erie de simula¸ c˜oes do modelo
de Ehrenfest e coloque num gr´ afico o n´ umero de bolas na urna A em fun¸ c˜ao
do tempo. De todas as curvas que passam por n num determinado instante ℓ,
as de maior freq¨ uˆencia s˜ ao aquelas que no instante anterior ℓ −1 e no instante
posterior ℓ + 1 passam por n − 1, isto ´e, aquelas que tˆem a forma de um ”V”
invertido no ponto (ℓ, n).
5.8 PASSEIO ALEAT
´
ORIO
Vamos retomar o problema do passeio aleat´ orio introduzido no cap´ıtulo 2 e
reformu- l´ a-lo em termos de uma cadeia de Markov. A cada intervalo de tempo,
uma part´ıcula, que se move ao longo de uma reta, salta uma distˆancia h para
a esquerda ou para a direita com igual probabilidade. As poss´ıveis posi¸ c˜oes da
part´ıcula s˜ ao x = nh com n = 0, 1, 2, ..., N−1. Para simplificar vamos considerar
condi¸ c˜oes peri´ odicas de contorno o que significa que, quando a part´ıcula estiver
na posi¸ c˜ao h(N − 1), ela poder´a saltar para o posi¸ c˜ao x = 0 e vice-versa. A
probabilidade de transi¸ c˜ao T(m, n) de n para m ser´a T(n−1, n) = T(n+1, n) =
1/2 e T(m, n) = 0 em outros casos.
Aqui, entretanto, vamos permitir que a part´ıcula possa permanecer onde
estava com uma certa probabilidade p. Nesse caso ent˜ ao, a matriz estoc´astica ´e
dada por
T(n −1, n) = T(n + 1, n) =
1
2
q (5.86)
e
T(n, n) = p, (5.87)

99 Cadeias de Markov
onde q = 1 −p. Em outros casos, T(m, n) = 0.
Seja P

(n) a probabilidade de a part´ıcula estar na posi¸ c˜ao x = nh no instante
ℓ. Vamos supor que no instante zero ela esteja no origem de modo que P
0
(n) =
δ
n0
. A equa¸ c˜ao que d´a a evolu¸ c˜ao de P

(n) ´e dada por
P
ℓ+1
(n) =

m
T(n, m)P

(m). (5.88)
Para o caso que estamos considerando
P
ℓ+1
(n) =
1
2
qP

(n + 1) +pP

(n) +
1
2
qP

(n −1), (5.89)
onde n = 0, 1, 2, ..., N − 1 e usamos condi¸ coes peri´ odicas de modo que P

(N +
n) = P

(n).
A matriz estoc´astica acima ´e um exemplo de uma matriz de Toeplitz que s˜ ao
matrizes cujos elementos de uma determinada diagonal s˜ ao todos iguais. Isto ´e,
uma matriz de Toeplitz T possui a propriedade
T(n, m) = f(n −m) (5.90)
onde f(n) ´e peri´ odica: f(n +N) = f(n). Note que f(n) possui as propriedades
f(n) ≥ 0 e

n
f(n) = 1. (5.91)
Para o caso em considera¸ c˜ao, f(1) = f(N −1) = q/2, f(0) = p e zero em outros
casos. A equa¸ c˜ao de evolu¸ c˜ao de P

(n) ser´a, pois
P
ℓ+1
(n) =

m
f(n −m)P

(m). (5.92)
Definindo G

(k) como a fun¸ c˜ao caracter´ıstica correspondente a P

(n), isto
´e,
G

(k) =

n
e
ikn
P

(n), (5.93)
ent˜ ao
G
ℓ+1
(k) = F(k)G

(k), (5.94)
onde F(k) ´e a fun¸ c˜ao caracter´ıstica de f(n), ou seja
F(k) =

n
e
ikn
f(n). (5.95)
A partir da equa¸ c˜ao (5.94) obtemos
G

(k) = [F(k)]

G
0
(k). (5.96)
100

Dinˆamica Estoc´astica e Irreversibilidade
Para P
0
(n) = δ
n0
, a fun¸ c˜ao caracter´ıstica correspondente ´e G
0
(k) = 1 de modo
que
G

(k) = [F(k)]

. (5.97)
Para o caso do passeio ale´ atorio considerado aqui F(k) = p + q cos k e,
portanto,
G

(k) = (p +q cos k)

. (5.98)
A partir de G

(k), obtemos P

(n).
Qualquer matriz de Toeplitz possui os seguintes autovetores:
ψ
k
(n) =
1
N
e
ikn
, k =

N
j, j = 0, 1, 2, ..., N −1. (5.99)
Para verificar isso, basta subtituir esses autovetores na equac˜ ao de autovalores

n
T(n, m)ψ
k
(m) = λ
k
ψ
k
(n). (5.100)
Levando em conta as propriedades de f(n), obtemos:
λ
k
=

n
e
ikn
f(n) = F(k) (5.101)
ou, para o caso que estamos considerando, λ
k
= p + q cos k. Os autovetores `a
esquerda s˜ ao dados por φ
k
(n) = e
−ikn
. Dessa forma, temos
P

(n) = T

(n, 0) (5.102)
ou, usando o teorema espectral (5.24),
P

(n) =

k
λ

k
ψ
k
(n)φ

k
(0) =
1
N

k
λ

k
e
ikn
(5.103)
ou ainda
P

(n) =
1
N

k
(p +q cos k)

e
ikn
. (5.104)
5.9 RECORR
ˆ
ENCIA
Seja R

(n, m) a probabilidade de a part´ıcula estar na posi¸ c˜ao n, ap´os ℓ inter-
valos de tempo, dado que ela estava na posi¸ c˜ao m no instante inicial e que em
nenhum instante ela tenha estado na posi¸ c˜ao n. Em outras palavras, R

(n, m)
´e a probabilidade de a part´ıcula atingir a posi¸ c˜ao n pela primeira vez em ℓ in-
tervalos de tempo come¸ cando pela posi¸ c˜ao m. De acordo com Kac, existe uma
rela¸ c˜ao entre a matriz estoc´astica T e essa probabilidade dada por
T

(n, m) =

j=1
R
j
(n, m)T
ℓ−j
(n, n), (5.105)

101 Cadeias de Markov
v´ alida para ℓ ≥ 1, onde T
j
(n, m) = T
j
(n, m) ´e a probabilidadede de atingir n
em j intervalos de tempo come¸ cando por m, sendo que T
0
(n, m) = δ(n, m). Essa
rela¸ c˜ao pode ser entendida como segue. Come¸ cando do estado m, o estado n
pode ser atingido, em ℓ intervalos de tempo, atrav´es de ℓ maneiras mutuamente
excludentes. Cada maneira ´e rotulada pelo ´ındice j que indica o n´ umero de
passos em que n ´e atingido pela primeira vez. Assim, a part´ıcula estar´a em n
ap´os ℓ passos se ela atingir n pela primeira vez em j passos e voltando a n ap´os
ℓ −j passos.
Definimos as fun¸ c˜oes geratrizes
g(n, m, z) =

ℓ=1
T

(n, m)z

+δ(n, m) (5.106)
e
h(n, m, z) =

ℓ=1
R

(n, m)z

. (5.107)
´
E interessante notar que a matriz g(z) cujos elementos s˜ ao g(n, m, z) ´e igual `a
inversa da matriz I −zT, pois g(z) = I +zT +z
2
T
2
+.... A matriz g(z) tamb´em
´e conhecida como fun¸ c˜ao de Green.
Usando a equa¸ c˜ao (5.105), obtemos
g(n, m, z) = δ(n, m) +h(n, m, z)g(n, n, z) (5.108)
ou ainda
h(n, m, z) =
g(n, m, z) −δ(n, m)
g(n, n, z)
. (5.109)
Para m = n,
h(n, n, z) = 1 −
1
g(n, n, z)
. (5.110)
A probabilidade ¹(n) de que a part´ıcula volte `a posi¸ c˜ao n come¸ cando na
mesma posi¸ c˜ao n, e que chamamos de probabilidade de recorrˆencia do estado
n, ser´a
¹(n) =

ℓ=1
R

(n, n) = h(n, n, 1) = 1 −
1
g(n, n, 1)
. (5.111)
´
E importante observar que se g(n, n, 1) diverge ent˜ ao ¹(n) = 1 e o estado ´e
recorrente, isto ´e, a probabilidade de a part´ıcula voltar `a posi¸ c˜ao inicial ´e igual
a um. Caso contr´ario, essa probabilidade ser´a menor do que um. No caso em
que ¹(n) = 1, podemos definir o tempo m´edio de recorrˆencia ¸ℓ) por
¸ℓ) =

ℓ=1
ℓR

(n, n) = lim
z→1
d
dz
h(n, n, z). (5.112)
102

Dinˆamica Estoc´astica e Irreversibilidade
Usando a rela¸ c˜ao
T

(n, m) =

k
λ

k
ψ
k
(n)φ

k
(m) (5.113)
obtemos:
g(n, m, z) =

k
1
1 −zλ
k
ψ
k
(n)φ

k
(m). (5.114)
Para saber se n ´e recorrente devemos olhar para
g(n, n, z) =

k
1
1 −zλ
k
ψ
k
(n)φ

k
(n) (5.115)
ou ainda para
g(n, n, z) =
P(n)
1 −z
+

k=0
1
1 −zλ
k
ψ
k
(n)φ

k
(n), (5.116)
pois λ
0
= 1, ψ
0
(n) = P(n) que ´e a probabilidade estacion´ aria, e φ

0
(n) = 1.
Enquanto P(n) ,= 0, o que ocorre quando o n´ umero de estados for finito
(lembrar do teorema de Perron-Frobenius), devemos ter g(n, n, z) →∞ quando
z → 1. Da´ı conclu´ımos que ¹ = 1 e o estado n (ou qualquer outro) ´e sempre
recorrente.
Para valores de z pr´oximos de um, g(n, n, z) ´e dominada pelo primeiro
termo. Assim para z ∼ 1, escrevemos g(n, n, z) = P(n)(1 − z)
−1
de modo
que h(n, n, z) = 1 − (1 − z)/P(n). Logo ¸ℓ) = 1/P(n). Para o problema do
passeio aleat´ orio P(n) = 1/N, todos os estados possuem o mesmo tempo m´edio
de recorrˆencia que ´e igual a N.
Em sequida vamos considerar o caso em que P(n) se anula. Consideraremos
o caso do passeio aleat´ orio para o qual P(n) = 1/N. Nesse caso a primeira
parcela se anula e devemos considerar todos os termos da somat´oria. A partir
dos autovalores obtidos anteriormente chegamos ao resultado
g(n, m, z) =
1
N

k
e
ik(n−m)
1 −zλ
k
, (5.117)
onde k = 2πj/N, j = 0, 1, 2, ..., N −1 e λ
k
= p +q cos k. Portanto
g(n, n, z) =
1
N

k
1
1 −zλ
k
. (5.118)
Quando N →∞, obtemos a integral
g(n, n, z) =
1

π
_
−π
1
1 −zλ
k
dk. (5.119)

103 Cadeias de Markov
E o problema agora ´e saber se a integral diverge quando z →1, isto ´e, saber se
a integral
g(n, n, 1) =
1
2πq
π
_
−π
1
1 −cos k
dk (5.120)
diverge. Para isso, basta saber o comportamento do integrando para pequenos
valores de k. Escrevendo:
1
2
π
_
−π
1
1 −cos k
dk =
π
_
0
1
1 −cos k
dk =
ǫ
_
0
1
1 −cos k
dk +
π
_
ǫ
1
1 −cos k
dk (5.121)
onde ǫ ≪ 1, vemos que o integrando da primeira integral pode ser aproximado
por 2/k
2
que possui como integral a fun¸ c˜ao −2/k que diverge em k = 0. Logo
¹(n) = 1 e qualquer estado ´e recorrente. Entretanto, o tempo m´edio de re-
corrˆencia ´e infinito.
5.10 PASSEIO ALEAT
´
ORIO MULTIDIMENSIONAL
Vamos considerar inicialmente o caso em que uma part´ıcula se move num plano.
A cada intervalo de tempo, ela pode saltar uma distˆanica h na dire¸ c˜ao leste,
oeste, norte ou sul com igual probabilidade. Denotamos ent˜ ao a posi¸ c˜ao da
part´ıcula pelo vetor r = hn = h(n
1
, n
2
). As probabilidades de transi¸ c˜ao n˜ao
nulas s˜ ao dadas por
T(n, m) =
1
4
q se n
1
= m
1
±1 ou n
2
= m
2
±1, (5.122)
e
T(n, n) = p, (5.123)
onde estamos usando condi¸ c˜oes peri´ odicas de contorno nas duas dire¸ c˜oes. A
fun¸ c˜ao f(n) ser´a pois
f(n) =
1
4
q, se [n[ = 1 e f(0) = p, (5.124)
de modo que
F(k) =

n
e
ik·n
f(n) = p +
1
2
q(cos k
1
+ cos k
2
), (5.125)
onde k = (k
1
, k
2
). Aqui tamb´em os autovalores de T s˜ ao dados por λ
k
= F(k)
de modo que g(n, n, 1) para um sistema infinito ´e dado por
g(n, n, 1) =
1

2
q
π
_
−π
π
_
−π
2
2 −cos k
1
−cos k
2
dk
1
dk
2
. (5.126)
104

Dinˆamica Estoc´astica e Irreversibilidade
Essa integral tamb´em diverge, pois, repetindo o argumento feito na se¸ c˜ao an-
terior, temos que considerar a integral numa vizinhan¸ ca da origem. Nessa vizi-
nhan¸ ca [k[ ≪1 e devemos analisar o comportamento da integral
_ _
1
k
2
1
+k
2
2
dk
1
dk
2
=
_
1
k
2
2πkdk = 2π ln k. (5.127)
Essa integral diverge de forma logaritma quando k → 0. Portanto, no plano,
qualquer estado ´e recorrente.
Em trˆes ou mais dimens˜oes devemos generalizar a integral (5.126) para o
caso de um espa¸ co de d dimens˜oes. A integral nesse espa¸ co ser´a
g(n, n, 1) =
1
q(2π)
d
π
_
−π
π
_
−π
...
π
_
−π
d
d −cos k
1
−cos k
2
−... cos k
d
dk
1
dk
2
...dk
d
(5.128)
e novamente devemos observar o comportamento pr´oximo de k
1
= k
2
= ... =
k
d
= 0. A integral numa vizinhan¸ ca ao redor da origem ´e dada por
_
1
k
2
1
+k
2
2
+... +k
2
d
dk
1
dk
2
...dk
d
= c
_
1
k
2
k
d−1
dk = c
1
d −2
k
d−2
, (5.129)
que ´e finita para d ≥ 3. Logo, ¹ < 1, para d ≥ 3.
Os resultados acima permitem fazer a seguinte afirma¸ c˜ao devida a P´ olya:
em uma e duas dimens˜oes qualquer estado ´e recorrente (¹ = 1), isto ´e, a
part´ıcula voltar´ a ao ponto de partida com probabilidade igual a um; em trˆes
ou mais dimens˜oes, entretanto, isso n˜ao ocorre; nesses casos, a probabilidade de
recorrˆencia ´e menor do que um (¹ < 1) e a part´ıcula poder´a nunca mais voltar
ao ponto de partida.
Em trˆes dimens˜oes
g(n, n, 1) =
1
q(2π)
3
π
_
−π
π
_
−π
...
π
_
−π
3
3 −cos k
1
−cos k
2
−cos k
3
dk
1
dk
2
dk
3
. (5.130)
Calculando numericamente a integral,
g(n, n, 1) =
1
q
1.516386... (5.131)
o que fornece ¹ = 1 − 0.659462...q < 1, enquanto q > 0. Para q = 1, ¹ =
0.340537....
BIBLIOGRAFIA
Chandrasekhar, S. 1943. ”Stochastic problems in physics and astronomy”.
Rev. Mod. Phys., 15, 1.

105 Cadeias de Markov
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Gantmacher, F. R. 1959. Applications of the Theory of Matrices. Interscience
Pub., New York.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. ”Random walk and the theory of Brownian motion”. American
Mathematical Monthly, 54, 369.
Kac, M. 1959. Probability and Related Topics in Physical Sciences. Interscience
Publishers, New York.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Kemeny, J. G. & Snell, J. L. 1960. Finite Markov Chains. Van Nostrand,
Princeton.
Montroll, E. W. & Weiss, G. H. 1965. ”Random walks on lattices. II”. J.
Math. Phys., 6, 167.
Nicolis, G & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
EXERC
´
ICIOS
1. Uma cadeia ´e constitu´ıda por uma sucess˜ ao de ´atomos de trˆes tipos, A, B,
e C. Nessa cadeia, dois ´atomos do mesmo tipo nunca aparecem juntos. Um
´atomo do tipo B sucede um do tipo A com probabilidade 1/3 e um ´atomo
do tipo A sucede um ´atomo do tipo B com probabilidade 1/3. Depois
de um ´atomo do tipo C sempre vem um ´atomo do tipo A. Determine
a concentra¸ c˜ao de cada tipo de ´atomo. Determine a fra¸ c˜ao dos poss´ıveis
pares de ´atomos vizinhos.
2. Uma cadeia de Markov ´e definida pela matriz estoc´astica T e pelo vetor
probabilidade inicial P
0
, dados por
T =
_
_
_
0 1/3 1
1/3 0 0
2/3 2/3 0
_
_
_ P
0
=
_
_
_
1
0
0
_
_
_
106

Dinˆamica Estoc´astica e Irreversibilidade
Use o m´etodo alg´ebrico para determinar o vetor probabilidade P

em qual-
quer instante ℓ.
3. Considere uma cadeia de Markov cuja probabilidade ´e dada por
T

(n
0
, n
1
, n
2
, ..., n

) = T(n

[n
ℓ−1
)...T(n
2
[n
1
)T(n
1
[n
0
)T
0
(n
0
),
e defina a entropia da cadeia o

at´e o instante por
o

= −

n
0

n
1

n
2
...

n

T

(n
0
, n
1
, n
2
, ..., n

) ln T

(n
0
, n
1
, n
2
, ..., n

).
Suponha que a matriz estoc´astica T(n, m) possua uma probabilidade es-
tacion´aria ´ unica P(n). Mostre ent˜ ao que a grandeza S = o

/ℓ, no limite
ℓ →∞, ´e dada por
S = −

n

m
T(n, m)P(m) ln T(n, m)
inclusive para o caso de matrizes c´ıclicas. Ache o valor de S para o caso
da cadeia definida no exerc´ıcio 1 acima. Determine a express˜ao de S para
o caso em T(n, m) = p(m).
6
Equac¸
˜
ao Mestra
6.1 INTRODUC¸
˜
AO
Considere a matriz estoc´astica T(n, m) de uma cadeia de Markov. Suponha que
as transi¸ c˜oes ocorram a cada intervalo de tempo τ e que a matriz estoc´astica
seja dada por
T(n, m) = τW(n, m), n ,= m, (6.1)
e
T(n, n) = 1 −τΩ(n). (6.2)
Suponha ainda que τ seja pequeno de modo que a probabilidade de permanˆencia
no mesmo estado seja muito pr´oxima da unidade. A propriedade

m
T(m, n) = 1 (6.3)
implica
Ω(n) =

m(=n)
W(m, n). (6.4)
Vamos examinar em seguida a evolu¸ c˜ao da probabilidade P

(n) de o sistema
estar no estado n no ℓ-´esimo intervalo de tempo, que escrevemos na forma
P
ℓ+1
(n) =

m(=n)
T(n, m)P

(m) +T(n, n)P

(n) (6.5)
108

Dinˆamica Estoc´astica e Irreversibilidade
ou ainda, usando as equa¸ c˜oes (6.1) e (6.2),
P
ℓ+1
(n) = τ

m(=n)
W(n, m)P

(m) +P

(n) −τΩ(n)P

(n). (6.6)
Definindo a probabilidade do estado n no instante t = ℓτ por P(n, t) = P

(n),
ent˜ ao
P(n, t +τ) −P(n, t)
τ
=

m(=n)
W(n, m)P(m, t) −Ω(n)P(n, t). (6.7)
No limite τ → 0, o lado esquerdo se torna a derivada temporal de P(n, t) de
modo que
d
dt
P(n, t) =

m(=n)
W(n, m)P(m, t) −Ω(n)P(n, t). (6.8)
Usando a equa¸ c˜ao (6.4), podemos escrever ainda:
d
dt
P(n, t) =

m(=n)
¦W(n, m)P(m, t) −W(m, n)P(n, t)¦, (6.9)
que ´e a equa¸c˜ ao mestra. W(n, m) ´e interpretada como a probabilidade de
transi¸ c˜ao de m para n por unidade de tempo, ou ainda, taxa de transi¸ c˜ ao de m
para n.
Exemplo 1. O passeio aleat´ orio em tempo cont´ınuo ´e definido como segue.
Um part´ıcula se move ao longo de uma reta. A cada intervalo de tempo curto
∆t, ela salta uma distˆancia h para a esquerda ou para a direita com probabi-
lidade γ∆t/2. As poss´ıveis posi¸ c˜oes da part´ıcula s˜ ao dadas por x = nh onde
n = 0, 1, 2, ..., N − 1. Por conveniˆencia consideramos condi¸ c˜oes peri´ odicas de
contorno. As taxas de transi¸ c˜ao W(n, m) s˜ ao dadas por
W(n, n + 1) = W(n, n −1) =
γ
2
. (6.10)
As outras taxas de transi¸ c˜ao s˜ ao nulas. A equa¸ c˜ao mestra se torna
d
dt
P(n, t) =
γ
2
P(n + 1, t) +
γ
2
P(n −1, t) −γP(n, t). (6.11)
6.2 MATRIZ DE EVOLUC¸
˜
AO W
Examinando o lado direito da equa¸ c˜ao mestra (6.9), observamos que a somat´ oria
se estende somente sobre os estados m diferentes de n. Como o elemento W(n, n)

109 Equa¸ c˜ao Mestra
n˜ao participa dessa equa¸ c˜ao podemos defini-lo segundo nossa conveniˆencia. Va-
mos definir W(n, n) de tal forma que

m
W(m, n) = 0, (6.12)
isto ´e,
W(n, n) = −

m(=n)
W(m, n) = −Ω(n). (6.13)
Tendo em vista que, agora, todos os elementos W(n, m) est˜ ao determinados,
podemos definir a matriz quadrada W, denominada matriz de evolu¸ c˜ao, como
aquela cujos elementos s˜ ao W(n, m). Ela possui as seguintes propriedades: a)
qualquer elemento fora da diagonal ´e maior ou igual zero,
W(n, m) ≥ 0, n ,= m, (6.14)
b) a soma dos elementos de uma coluna ´e nula, equa¸ c˜ao (6.12). Est´a claro que
os elementos da diagonal devem ser negativos ou nulos. Seja ψ uma matriz
coluna cujos elementos s˜ ao ψ(n). Ent˜ ao, usando a equa¸ c˜ao (6.13), vemos que

m
W(n, m)ψ(m) =

m(=n)
¦W(n, m)ψ(m) −W(m, n)ψ(n)¦. (6.15)
Logo a equa¸ c˜ao mestra pode ser escrita na forma
d
dt
P(n, t) =

m
W(n, m)P(m, t) (6.16)
ou ainda
d
dt
P(t) = WP(t), (6.17)
onde P(t) ´e a matriz coluna cujos elementos s˜ ao P(n, t).
A solu¸ c˜ao formal da equa¸ c˜ao (6.17) com a condi¸ c˜ao inicial P(n, 0) ´e dada
por
P(t) = e
tW
P(0), (6.18)
onde P(0) ´e a matriz coluna cujos elementos s˜ ao P(n, 0) e e
tW
´e a matriz definida
por
e
tW
= I +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+
t
4
4!
W
4
+... (6.19)
sendo I a matriz identidade.
110

Dinˆamica Estoc´astica e Irreversibilidade
Exemplo 2. Considere o caso mais simples poss´ıvel de uma sistema com dois
estados n = 1, 2 com matriz de evolu¸ c˜ao W dada por
W =
_
−γ/2 γ/2
γ/2 −γ/2
_
. (6.20)
´
E f´acil ver que
W

= (−γ)
ℓ−1
W, ℓ = 1, 2, 3, ... (6.21)
de modo que
exp¦tW¦ = I +

ℓ=1
t

W

= I +W

ℓ=1
t

(−γ)
ℓ−1
= I +
1
γ
(1 −e
−tγ
)W, (6.22)
onde I ´e a matriz identidade 2 2. Logo
P(t) = P(0) +
1
γ
(1 −e
−tγ
)WP(0), (6.23)
ou, explicitamente,
P(1, t) =
1
2
(1 −e
−tγ
) +e
−tγ
P(1, 0) (6.24)
e
P(2, t) =
1
2
(1 −e
−tγ
) +e
−tγ
P(2, 0). (6.25)
No limite t → ∞ temos P(1, t) = P(2, t) = 1/2, independente da condi¸ c˜ao
inicial.
6.3 COMPORTAMENTO PARA TEMPOS LONGOS
A solu¸ c˜ao estacion´ aria P
e
(n) da equa¸ c˜ao mestra ´e aquela que satisfaz a equa¸ c˜ao

m(=n)
¦W(n, m)P
e
(m) −W(m, n)P
e
(n)¦ = 0 (6.26)
ou
WP
e
= 0. (6.27)
Dadas a taxas de transi¸ c˜ao, desejamos determinar quais as condi¸ c˜oes para que
essa solu¸ c˜ao seja ´ unica e para que
lim
t→∞
P(t) = P
e
, (6.28)
isto ´e, que P(t) se aproxime da solu¸ c˜ao estacion´ aria para tempos longos.

111 Equa¸ c˜ao Mestra
Uma forma de solucionar tal problema ´e reduzi-lo a um problema de proces-
sos markovianos de tempo discreto. Discretizando o tempo em intervalos ∆t,
podemos es- crever a solu¸ c˜ao formal (6.18) na forma
P(t) = (e
∆tW
)

P(0), (6.29)
onde ℓ ´e tal que ℓ∆t = t. Mas essa equa¸ c˜ao pode ser entendida como um
processo markoviano discreto, como visto no cap´ıtulo 5, cuja matriz estoc´astica
´e
T = e
∆tW
, (6.30)
que tamb´em pode ser escrita na forma
T = I + ∆tW (6.31)
para ∆t suficientemente pequeno, onde I ´e a matriz identidade. Portanto, se
a matriz T satisfizer os requisitos do teorema de Perron-Frobenius, a solu¸ c˜ao
estacion´ aria ser´a ´ unica e ela ser´a atingida no limite t → ∞ para quaisquer
condi¸ c˜oes iniciais.
Usando os resultados da se¸ c˜ao 5.3, e tendo em vista a equa¸ c˜ao (6.30) ou
(6.31), podemos fazer as seguintes afirma¸ c˜oes de car´ ater geral.
1) A matriz de evolu¸ c˜ao W possui um autovalor nulo.
2) A parte real de qualquer autovalor de W ´e negativo ou nulo.
3) Ao autovalor nulo corresponde um autovetor com componentes n˜ao-negativas.
Se qualquer estado n puder ser atingido a partir de qualquer outro m, ent˜ ao
podemos afirmar o seguinte:
4) O autovalor nulo ´e n˜ao degenerado e o autovetor correspondente possui
todas as componentes estritamente positivas. Em outras palavras, o estado
estacion´ ario ´e ´ unico e P
e
(n) > 0.
5) Todos os outros autovalores possuem parte real estritamente negativa.
6) Quando t →∞a probabilidade P(n, t) converge para P
e
(n) qualquer que
seja a condi¸ c˜ao inicial P(n, 0).
6.4 ENTROPIA
Uma maneira alternativa de demonstrar a aproxima¸ c˜ao ao estado estacion´ ario
no limite de tempos longos ´e construir uma fun¸ c˜ao que seja monotˆonica no
tempo e limitada.
Defina a fun¸ c˜ao H(t) por
H(t) =

n
P
e
n
f(x
n
), x
n
(t) =
P
n
(t)
P
e
n
, (6.32)
112

Dinˆamica Estoc´astica e Irreversibilidade
onde f(x) ´e uma fun¸ c˜ao diferenci´avel, convexa e tal que f(x) ≥ 0 o que implica
H(t) ≥ 0. Estamos usando a nota¸ c˜ao P
n
(t) e P
e
n
no lugar de P(n, t) e P
e
(n),
respectivamente.
Derivando a fun¸ c˜ao H(t), temos
dH
dt
=

n
f

(x
n
)
dP
n
dt
(6.33)
e, portanto,
dH
dt
=

n
f

(x
n
)

m(=n)
¦W
nm
x
m
P
e
m
−W
mn
x
n
P
e
n
¦. (6.34)
Multiplicando ambos os membros da equa¸ c˜ao (6.26) por uma fun¸ c˜ao arbitr´aria
A
n
e somando em n obtemos:

n
A
n

m(=n)
¦W
nm
P
e
m
−W
mn
P
e
n
¦ = 0, (6.35)
que, somado `a equa¸ c˜ao anterior, resulta em
dH
dt
=

n,m(n=m)
¦(x
m
f

(x
n
) +A
n
)W
nm
P
e
m
−(x
n
f

(x
n
) +A
n
)W
mn
P
e
n
¦ (6.36)
ou
dH
dt
=

n,m(n=m)
¦(x
m
f

(x
n
) +A
n
) −(x
m
f

(x
m
) +A
m
)¦W
nm
P
e
m
. (6.37)
Se escolhermos A
n
= f(x
n
) −x
n
f

(x
n
) obtemos
dH
dt
=

n,m(n=m)
¦(x
m
−x
n
)f

(x
n
) +f(x
n
) −f(x
m
)¦W
nm
P
e
m
. (6.38)
Para uma fun¸ c˜ao convexa, a express˜ao entre chaves ´e sempre estritamente ne-
gativa, exceto quando x
m
= x
n
, de modo que dH/dt < 0. No entanto, como
H(t) ≥ 0, ela deve decrescer e se aproximar de seu valor m´ınimo, ou seja, ela
deve se anular quando t → ∞, o que ocorre se, para qualquer par n, m tal
que W
nm
,= 0, tenhamos x
n
(∞) = x
m
(∞). Se a matriz de evolu¸ c˜ao W for tal
que qualquer estado possa ser atingido a partir de qualquer outro estado ent˜ ao
x
n
(∞) deve ter o mesmo valor para todos os poss´ıveis valores de n de onde
conclu´ımos que P
n
(∞) = P
e
n
.
A escolha f(x) = xln x−x+1, resulta na fun¸ c˜ao H de Boltzmann dada por
H(t) =

n
P
n
(t) ln
P
n
(t)
P
e
n
, (6.39)

113 Equa¸ c˜ao Mestra
que est´ a relacionada com a entropia S(t) atrav´es de S = −kH + C onde k e
C s˜ ao constantes. A entropia assim definida ´e, portanto, uma fun¸ c˜ao temporal
monotˆonica crescente.
6.5 M
´
ETODO ALG
´
EBRICO
A solu¸ c˜ao da equa¸ c˜ao mestra pode ser obtida se determinarmos todos os au-
tovetores e autovalores da matriz de evolu¸ c˜ao W. Suponha que ¦ψ
k
¦ e ¦φ
k
¦
sejam os autovetores `a esquerda e `a direita, respectivamente; e que ¦Λ
k
¦ sejam
os autovalores correspondentes, isto ´e,

k
= Λ
k
ψ
k
e φ
k
W = Λ
k
φ
k
. (6.40)
Por simplicidade consideramos aqui que os autovalores s˜ ao n˜ao degenerados. Os
autovetores formam um conjunto completo de modo que
φ
j
ψ
k
= δ
jk
e

k
ψ
k
φ
k
= I, (6.41)
onde I ´e a matriz identidade.
Notar que o vetor probabilidade estacion´ aria P
e
´e um autovetor com autova-
lor nulo. Denotando por ψ
0
o autovetor correspodente ao autovalor nulo Λ
0
= 0,
vemos que eles coincidem, ψ
0
= P
e
. Al´em disso, o correspondente autovetor `a
esquerda φ
0
´e uma matriz linha com todas as componentes iguais `a unidade.
Realmente, a equa¸ c˜ao (6.12) pode ser escrita como

n
φ
0
(n)W(n, m) = 0 (6.42)
ou ainda φ
0
W = 0. A normaliza¸ c˜ao de P
e
nos d´a φ
0
P
e
= 1 ou seja φ
0
ψ
0
= 1.
Considere agora a seguinte expans˜ao:
e
tW
= e
tW
I = e
tW

k
ψ
k
φ
k
=

k
e

k
ψ
k
φ
k
(6.43)
de onde obtemos:
P(t) =

k
a
k
e

k
ψ
k
, (6.44)
onde a
k
´e um escalar dado por a
k
= φ
k
P(0). Como um dos autovalores ´e nulo,
podemos escrever ainda:
P(t) = P
e
+

k(=0)
a
k
e

k
ψ
k
, (6.45)
114

Dinˆamica Estoc´astica e Irreversibilidade
onde usamos o fato de que a
0
= φ
0
P(0) = 1, pois P(0) est´ a normalizado.
´
E
importante observar que, como todos os outros autovalores s˜ ao estritamente
negativos, segue-se que limP(t) = P
e
quando t →∞.
Exemplo 3. Considere a matriz de evolu¸ c˜ao W dada por
W =
_
−b q
b −q
_
(6.46)
com b ≥ 0 e q ≥ 0. Os autovetores e autovalores s˜ ao dados por
φ
0
=
_
1 1
_
, ψ
0
=
1
q +b
_
q
b
_
, Λ
0
= 0 (6.47)
e
φ
1
=
1
q +b
_
b −q
_
, ψ
1
=
_
1
−1
_
, Λ
1
= −(b +q). (6.48)
Assim, obtemos
e
tW
= e

0
φ
0
ψ
0
+e

1
φ
1
ψ
1
, (6.49)
ou seja,
e
tW
=
1
q +b
_
q q
b b
_
+
e
−t(b+q)
q +b
_
b −q
−b q
_
. (6.50)
Para uma probabilidade inicial
P(0) =
_
p
1
p
2
_
(6.51)
obtemos:
P(t) = e
tW
P(0) =
1
q +b
_
q
b
_
+
e
−t(b+q)
q +b
(bp
1
−qp
2
)
_
1
−1
_
, (6.52)
que d´a a probabilidade dos dois estados em cada instante.
6.6 REVERSIBILIDADE MICROSC
´
OPICA
Quando as taxas de transi¸ c˜ao W(n, m) forem tais que a probabilidade esta-
cion´aria P
e
(n) satisfizer a equa¸ c˜ao
W(n, m)P
e
(m) −W(m, n)P
e
(n) = 0 (6.53)

115 Equa¸ c˜ao Mestra
para quaisquer pares de estados m e n, dizemos que elas obedecem o balance-
amento detalhado. Nesse caso dizemos que P
e
(n) al´em de ser a probabilidade
estacion´ aria ´e tamb´em a probabilidade de equil´ıbrio termodinˆ amico. Entre-
tanto, devemos observar que a obediˆencia ao balanceamento detalhado ´e uma
propriedade t˜ ao-somente da matriz de evolu¸ c˜ao W. Algumas matrizes, ou seja,
alguns processos, obedecem o balanceamento, outros n˜ao.
A condi¸ c˜ao de balanceamento detalhado ´e equivalente `a reversiblidade mi-
crosc´ opica. A probabilidade da transi¸ c˜ao m →n durante um intervalo de tempo
pequeno ∆t, no estado estacion´ ario, ´e igual a (∆t)W(n, m)P
e
(m), enquanto a
probabilidade da transi¸ c˜ao reversa n → m ´e igual a (∆t)W(m, n) P
e
(n). Se a
equa¸ c˜ao (6.53), for satisfeita ent˜ ao essas duas probabilidades ser˜ao iguais para
quaisquer pares de estados m e n.
Podemos em princ´ıpio estabelecer se um determinado processo obedece a
reversibi- lidade microsc´ opica sem apelar para a equa¸ c˜ao (6.53), isto ´e, sem
que se saiba, a priori, a probabilidade estacion´ aria. Considere trˆes estados
quaisquer n, n

, e n
′′
mas distintos. No estado estacion´ ario a probabilidade
da ocorrˆencia da trajet´ oria fechada n → n

→ n
′′
→ n, em trˆes intervalos de
tempos consecutivos ∆t, ´e
∆tW(n, n
′′
)∆tW(n
′′
, n

)∆tW(n

, n)P
e
(n), (6.54)
enquanto a probabilidade de ocorrˆencia da trajet´ oria reversa no mesmo intervalo
de tempo ´e
∆tW(n, n

)∆tW(n

, n
′′
)∆tW(n
′′
, n)P
e
(n). (6.55)
Havendo reversibilidade, essas duas probabilidades s˜ ao iguais, de modo que
W(n, n
′′
)W(n
′′
, n

)W(n

, n) = W(n, n

)W(n

, n
′′
)W(n
′′
, n), (6.56)
que ´e a condi¸ c˜ao procurada.
Uma propriedade importante das matrizes de evolu¸ c˜ao W que satisfazem o
ba- lanceamento detalhado ´e que seus autovalores s˜ ao todos reais. Definindo a
matriz

W por

W(m, n) =
1
χ(m)
W(m, n)χ(n), (6.57)
onde χ(n) =
_
P
e
(n), dividimos ambos os membros da equa¸ c˜ao (6.53) por
χ(m)χ(n), concluindo que

W ´e sim´etrica. Agora, dividindo ambos os membros
da equa¸ c˜ao de autovalores

n
W(m, n)ψ
k
(n) = Λ
k
ψ
k
(m) (6.58)
116

Dinˆamica Estoc´astica e Irreversibilidade
por χ(m) e usando a equa¸ c˜ao (6.57), obtemos:

n

W(m, n)
ψ
k
(n)
χ(n)
= Λ
k
ψ
k
(m)
χ(m)
, (6.59)
ou seja,

W possui os mesmos autovalores de W. Os autovetores s˜ ao
¯
ψ
k
com
componentes
¯
ψ
k
(n) = ψ
k
(n)/χ(n). Como

W ´e sim´etrica e real, seus autovalores
s˜ ao reais. Logo, os autovalores de W s˜ ao reais.
6.7 PASSEIO ALEAT
´
ORIO GENERALIZADO
Vamos considerar aqui um processo que pode ser entendido como um passeio
aleat´ orio ao longo de uma reta, mas com transi¸ c˜oes que dependem da posi¸ c˜ao
em que se encontra o passeante. As poss´ıveis posi¸ c˜oes ao longo da reta s˜ ao
dadas por x = hn. A cada intervalo de tempo pequeno ∆t, uma part´ıcula que
esteja na posi¸ c˜ao x = hn salta uma distˆancia h para a direita com probabilidade
(∆t)a
n
ou para a esquerda com probabilidade (∆t)b
n
. As taxas de transi¸ c˜ao
W
nm
s˜ ao pois dadas por
W
n+1,n
= a
n
e W
n−1,n
= b
n
. (6.60)
As outras taxas de transi¸ c˜ao s˜ ao nulas. A equa¸ c˜ao mestra torna-se ent˜ ao
d
dt
P
n
(t) = b
n+1
P
n+1
(t) +a
n−1
P
n−1
(t) −(a
n
+b
n
)P
n
(t). (6.61)
Quando a
n
e b
n
forem independentes de n e iguais, recuperamos o passeio
aleat´ orio usual do exemplo 1.
Exemplo 4. A vers˜ao em tempo cont´ınuo do modelo das urnas de Ehrenfest
possui taxas de transi¸ c˜ao dadas por
W
n+1,n
= a
n
= α
N −n
N
, n = 0, 1, 2, ..., N −1 (6.62)
e
W
n−1,n
= b
n
= α
n
N
, n = 1, 2, ..., N −1, N, (6.63)
onde α ´e uma constante positiva. A equa¸ c˜ao mestra escreve-se
d
dt
P
n
(t) = α
n + 1
N
P
n+1
(t) +α(1 −
n −1
N
)P
n−1
(t) −αP
n
(t). (6.64)

117 Equa¸ c˜ao Mestra
A evolu¸ c˜ao temporal da m´edia ¸f(n)) de uma fun¸ c˜ao da vari´avel estoc´astica
n ´e obtida multiplicando ambos os membros de (6.61) por f(n) e somando sobre
n. Ap´os rearranjar os termos, obtemos:
d
dt
¸f(n)) = ¸[f(n + 1) −f(n)]a
n
) +¸[f(n −1) −f(n)]b
n
). (6.65)
Como exemplo, podemos considerar os momentos de n. A evolu¸ c˜ao temporal
do primeiro momento ´e
d
dt
¸n) = ¸a
n
) −¸b
n
), (6.66)
a do segundo momento ´e
d
dt
¸n
2
) = ¸(2n + 1)a
n
) +¸(−2n + 1)b
n
), (6.67)
etc. Se as taxas de transi¸ c˜ao a
n
ou b
n
n˜ao forem lineares em n, a equa¸ c˜ao para
um determinado momento depender´a de momentos de ordem superior.
6.8 REAC¸
˜
OES QU
´
IMICAS
Nesta se¸ c˜ao estudaremos a cin´etica das rea¸ c˜oes qu´ımicas sob o ponto de vista
estoc´astico. A principal raz˜ ao dessa abordagem ´e que as rea¸ c˜oes qu´ımicas s˜ ao
de natureza estat´ıstica. Em alguns casos, as flutua¸ c˜oes s˜ ao pequenas, mas em
outros, elas s˜ ao grandes o suficiente para justificar um tratamento estoc´astico.
Uma tratamento detalhado das rea¸ c˜oes qu´ımicas ´e dif´ıcil, de modo que usa-
remos uma abordagem aproximada. As rea¸ c˜oes qu´ımicas ser˜ao descritas por um
modelo tal que as intera¸ c˜oes entre componentes s´ o dependam do n´ umero delas,
n˜ao dependendo das configura¸ c˜oes microsc´ opicas das mol´eculas. Dentro desse
modelo, as taxas de rea¸ c˜ao ser˜ao fun¸ c˜oes apenas dos n´ umeros de mol´eculas de
cada esp´ecie envolvida nas rea¸ c˜oes. Um tratamento mais geral, em que se leve
em conta a individualidade das mol´eculas e sua configura¸ c˜oes locais, ser´a objeto
de estudo mais adiante, no Cap´ıtulo 11.
Vamos considerar inicialmente o caso mais simples da rea¸ c˜ao A → B com
taxa de rea¸ c˜ao k e que corresponde, por exemplo, ao caso do decaimento radi-
ativo. Os estados poss´ıveis correspondem ao n´ umero n de mol´eculas do tipo A
onde n = 0, 1, 2, 3, .... A probabilidade de transi¸ c˜ao n →n−1 num intervalo de
tempo ∆t pequeno ´e (∆t)kn de modo que b
n
= kn e a
n
= 0. A equa¸ c˜ao mestra
´e pois
d
dt
P
n
(t) = k(n + 1)P
n+1
(t) −knP
n
(t) (6.68)
118

Dinˆamica Estoc´astica e Irreversibilidade
de onde obtemos a evolu¸ c˜ao temporal para o primeiro momento, que ´e o n´ umero
m´edio de mol´eculas do tipo A:
d
dt
¸n) = −k¸n) (6.69)
e para o segundo momento:
d
dt
¸n
2
) = −2k¸n
2
) +k¸n). (6.70)
A solu¸ c˜ao dessas duas equa¸ c˜oes s˜ ao
¸n) = n
0
e
−kt
(6.71)
e
¸n
2
) = n
0
e
−kt
+ (n
2
0
−n
0
)e
−2kt
(6.72)
com a condi¸ c˜ao inicial ¸n) = n
0
e ¸n
2
) = n
2
0
. A variˆancia ´e dada por
¸n
2
) −¸n)
2
= n
0
e
−kt
(1 −e
−kt
). (6.73)
Em seguida, vamos considerar o caso em que a
n
ou b
n
n˜ao s˜ ao lineares em
n. Um exemplo ´e o modelo de Schl¨ogl, descrito pelo conjunto das rea¸ c˜oes
A+B → 2A, (6.74)
2A → A+B, (6.75)
A → C, (6.76)
com taxas de rea¸ c˜ao k
1
, k
2
, e k
3
, respectivamente. A primeira ´e uma rea¸ c˜ao
catal´ıtica, a segunda ´e a sua reversa, e a terceira ´e uma aniquila¸ c˜ao espontˆ anea.
Consideramos que as mol´eculas do tipo B constituem um reservat´ orio, o que
significa dizer que as taxas de rea¸ c˜ao s˜ ao independentes do n´ umero delas. A
taxa de transi¸ c˜ao da primeira rea¸ c˜ao, correspondente ao processo n →n + 1, ´e
k
1
n; a taxa de transi¸ c˜ao da segunda, correspondente ao processo n → n − 1, ´e
k
2
n
2
; enquanto da terceira, correspondente tamb´em ao processo n → n − 1, ´e
k
3
n. Dessa forma vemos que
a
n
= k
1
n e b
n
= k
2
n
2
+k
3
n. (6.77)
Portanto, a equa¸ c˜ao mestra escreve-se
d
dt
P
n
(t) = [k
2
(n + 1)
2
+k
3
(n + 1)]P
n+1
(t),
+k
1
(n −1)P
n−1
(t) −(k
1
n +k
2
n
2
+k
3
n)P
n
(t). (6.78)

119 Equa¸ c˜ao Mestra
A evolu¸ c˜ao temporal do primeiro momento ´e
d
dt
¸n) = (k
1
−k
3
)¸n) −k
2
¸n
2
), (6.79)
a do segundo momento ´e
d
dt
¸n
2
) = (k
1
+k
3
)¸n) + (2k
1
−2k
3
+k
2
)¸n
2
) −2k
2
¸n
3
). (6.80)
Vemos pois que a evolu¸ c˜ao temporal de um determinado momento depende
de momentos de ordem superior. Uma maneira de resolver aproximadamente
essas equa¸ c˜oes ´e fazer um truncamento. O mais simples consiste em fazer a
aproxima¸ c˜ao ¸n
2
) = ¸n)
2
a qual, inserida na equa¸ c˜ao (6.79), nos d´a a equa¸ c˜ao
aproximada
d
dt
¸n) = (k
1
−k
3
)¸n) −k
2
¸n)
2
. (6.81)
Para k
1
,= k
3
a solu¸ c˜ao ´e
¸n) =
k
1
−k
3
k
2
+C exp¦−(k
1
−k
3
)t¦
. (6.82)
onde C ´e uma constante que deve ser determinada pela condi¸ c˜ao inicial.
No limite t →∞ obtemos as solu¸ c˜oes estacion´ arias
¸n) = 0, k
1
< k
3
(6.83)
e
¸n) =
k
1
−k
3
k
2
, k
1
> k
3
. (6.84)
Assim, no regime estacion´ ario o sistema exibe uma transi¸ c˜ao de fase de um
regime em que n˜ao h´a moleculas do tipo A, quando k
1
< k
3
, para um regime
em que o n´ umero de mol´eculas ´e n˜ao nulo, quando k
1
> k
3
. Em ambos os casos,
¸n) se aproxima de ser valor estacion´ ario de forma exponencial, e
−t/τ
, com um
tempo de relaxa¸ c˜ao τ dado por
τ = [k
1
−k
3
[
−1
, (6.85)
o qual diverge quando k
1
→k
3
.
Quando k
1
= k
3
a equa¸ c˜ao de evolu¸ c˜ao para ¸n) se torna
d
dt
¸n) = −k
2
¸n)
2
(6.86)
cuja solu¸ c˜ao ´e
¸n) =
1
k
2
t +c
(6.87)
de modo que para tempos longos ¸n) ∼ t
−1
, ou seja, nesse caso, o decaimento
ao estado estacion´ ario deixa de ser exponencial e torna-se alg´ebrico.
120

Dinˆamica Estoc´astica e Irreversibilidade
6.9 M
´
ETODO DA FUNC¸
˜
AO GERATRIZ
Em alguns casos, a equa¸ c˜ao mestra (6.61) pode ser resolvida de forma exata
atrav´es do m´etodo da fun¸ c˜ao geratriz. Vamos ilustrar o m´etodo considerando
a rea¸ c˜ao qu´ımica linear descrita pela equa¸ c˜ao mestra (6.68). A fun¸ c˜ao geratriz
f(x) ´e definida por
f(x, t) = ¸x
n
) =

n=0
P
n
(t)x
n
, [x[ < 1. (6.88)
A id´eia do m´etodo ´e construir uma equa¸ c˜ao diferencial para f(x, t) a partir da
equa¸ c˜ao mestra. Resolvendo essa equa¸ c˜ao, a expans˜ao em s´erie de potˆencias de
x fornece a distribui¸ c˜ao de probabilidades P
n
(t). Alternativamente, podemos
obter os diversos momentos por meio de
¸n) =
_
x
∂f
∂x
_
x=1
, ¸n
2
) =
_
x

∂x
x
∂f
∂x
_
x=1
, (6.89)
etc.
Derivando ambos os membros de (6.88) com rela¸ c˜ao ao tempo e usando
(6.68), obtemos:

∂t
f(x, t) = k(1 −x)

∂x
f(x, t). (6.90)
A solu¸ c˜ao dessa equa¸ c˜ao ´e da forma
f(x, t) = Φ(z), z = (1 −x)e
−kt
, (6.91)
onde a fun¸ c˜ao Φ(z) deve ser determinada pelas condi¸ c˜oes iniciais. Suponha
que no instante t = 0 haja n
0
mol´eculas de modo que f(x, 0) = x
n
0
. Como
f(x, 0) = Φ(1 −x), ent˜ ao Φ(z) = (1 −z)
n
0
. Logo,
f(x, t) = [1 −(1 −x)e
−kt
]
n
0
. (6.92)
O momento de ordem ℓ pode ser obtido tomando-se a ℓ-´esima derivada dessa
fun¸ c˜ao com rela¸ c˜ao a x no ponto x = 0.
Em seguida, vamos considerar o caso correspondentes `as rea¸ c˜oes qu´ımicas
A → B e B → A. A taxa de transi¸ c˜ao da primeira rea¸ c˜ao ´e k
1
n, enquanto a
da segunda ´e simplesmente k
2
. Estamos considerando que as mol´eculas do tipo
B s˜ ao em n´ umero abundante, de modo que elas n˜ao entram na equa¸ c˜ao. Nesse
caso temos ent˜ ao a
n
= k
2
e b
n
= k
1
n. Assim, a equa¸ c˜ao mestra torna-se
d
dt
P
n
(t) = k
1
(n + 1)P
n+1
(t) +k
2
P
n−1
(t) −(k
2
+k
1
n)P
n
(t). (6.93)

121 Equa¸ c˜ao Mestra
Usando o mesmo m´etodo da fun¸ c˜ao geratriz, obtemos a equa¸ c˜ao

∂t
f(x, t) = k
1
(1 −x)

∂x
f(x, t) −k
2
(1 −x)f(x, t). (6.94)
A solu¸ c˜ao ´e da forma
f(x, t) = h(x)g(x, t), (6.95)
onde g(x, t) satisfaz a mesma equa¸ c˜ao anterior, isto ´e,

∂t
g = k
1
(1 −x)
∂g
∂x
(6.96)
e h(x) ´e solu¸ c˜ao de
k
1
∂h
∂x
−k
2
h = 0. (6.97)
Logo
f(x, t) = Φ(z)e
αx
, z = (1 −x)e
−k
1
t
, α =
k
2
k
1
. (6.98)
Suponha que no instante t = 0 haja n
0
mol´eculas de modo que f(x, 0) = x
n
0
.
Ent˜ ao, devemos ter
x
n
0
= Φ(1 −x)e
αx
, (6.99)
de onde obtemos:
Φ(z) = (1 −z)
n
0
e
−α(1−z)
. (6.100)
Portanto
f(x, t) = [1 −(1 −x)e
−k
1
t
]
n
0
exp¦−α(1 −x)(1 −e
−k
1
t
)¦. (6.101)
Quanto t →∞, obtemos:
f(x, ∞) = exp¦−α(1 −x)¦ (6.102)
e portanto
f(x, ∞) = e
−α

n=1
1
n!
α
n
x
n
(6.103)
de onde obtemos a probabilidade estacion´ aria
P
n
(∞) =
e
−α
n!
α
n
. (6.104)
O primeiro momento ¸n) ´e igual `a derivada de f(x, t) com rela¸ c˜ao a x cal-
culado no ponto x = 1, ou
¸n) = n
0
e
−k
1
t
+α(1 −e
−k
1
t
). (6.105)
O decaimento exponencial s´ o depende da constante k
1
. No limite t →∞ obte-
mos ¸n) = α = k
2
/k
1
.
122

Dinˆamica Estoc´astica e Irreversibilidade
6.10 EXPANS
˜
AO EM S
´
ERIE TEMPORAL
At´e aqui estudamos alguns m´etodos exatos para a solu¸ c˜ao da equa¸ c˜ao mestra.
O m´etodo de expans˜ao em s´erie temporal que apresentaremos a seguir tamb´em
´e exato, desde que todos os termos da s´erie sejam calculados. Entretanto, em
muitas situa¸ c˜oes ´e imposs´ıvel, do ponto de vista pr´atico, calcular todos os ter-
mos. Se conseguirmos calcular um certo n´ umero deles, a s´erie truncada poder´a
ser extrapolada.
´
E exatamente dentro desse esp´ırito que a expans˜ao em s´erie
tem sua aplica¸ c˜ao. Essa abordagem exige que as grandezas relevantes possam
ser desenvolvidas em s´erie de potˆencia temporal.
Vimos que a solu¸ c˜ao formal da equa¸ c˜ao mestra na forma matricial
d
dt
P(t) = WP(t) (6.106)
para uma condi¸ c˜ao inicial P(0), ´e dada por
P(t) = e
tW
P(0) (6.107)
ou, de forma explicita,
P(t) = ¦I +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+...¦P(0). (6.108)
Para determinar a expans˜ao temporal da m´edia
¸F) =

n
F(n)P(n, t) (6.109)
de uma fun¸ c˜ao F(n), procedemos da seguinte forma: introduzimos inicialmente
a matriz linha Ω, que denominamos vetor ou matriz de referˆencia, cujos elemen-
tos s˜ ao todos iguais a um, Ω(n) = 1. Ent˜ ao, o produto matricial ΩP(t) ´e dado
por
ΩP(t) =

n
Ω(n)P(n, t) =

n
P(n, t) = 1. (6.110)
Uma propriedade importante da matriz de referˆencia Ω ´e
ΩW = 0, (6.111)
que se obt´em a partir da propriedade (6.12).
Em seguida definimos uma matriz quadrada F cujos elementos fora da dia-
gonal s˜ ao nulos e cujos elementos da diagonal s˜ ao F(n). Com essa defini¸ c˜ao, a
m´edia ¸F) pode ser calculada pela f´ormula
¸F) = ΩFP(t), (6.112)

123 Equa¸ c˜ao Mestra
pois
ΩFP(t) =

n
Ω(n)F(n)P(n, t) =

n
F(n)P(n, t). (6.113)
Usando a expans˜ao temporal (6.108) de P(t) em (6.112), obtemos:
¸F) = ΩF¦I +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+...¦P(0). (6.114)
Portanto
¸F) = f
0
+

ℓ=1
t

f

, (6.115)
onde os coeficientes s˜ ao dados por
f
0
= ΩFP(0), (6.116)
que ´e a m´edia de F no instante t = 0, e
f

=
1
ℓ!
ΩFW

P(0), ℓ ≥ 1. (6.117)
Vamos considerar agora a tranformada de Laplace de P(t) dada por
´
P(z) =
_

0
P(t)e
−zt
dt. (6.118)
Usando a expans˜ao temporal (6.108) e tendo em vista a identidade
1
ℓ!
_

0
t

e
−zt
dt =
1
z
ℓ+1
, (6.119)
ent˜ ao
´
P(z) = ¦
1
z
I +
1
z
2
W +
1
z
3
W
2
+
1
z
4
W
3
+...¦P(0). (6.120)
Mas a soma entre colchetes identifica-se com a inversa da matriz (zI −W), que
denotamos por (zI −W)
−1
, isto ´e,
(zI −W)
−1
=
1
z
I +
1
z
2
W +
1
z
3
W
2
+
1
z
4
W
3
+... (6.121)
de modo que
´
P(z) = (zI −W)
−1
P(0). (6.122)
Da mesma forma, podemos obter a transformada de Laplace da m´edia ¸F)
dada por
_

0
¸F)e
−zt
dt = ΩF
´
P(z) = ΩF(zI −W)
−1
P(0), (6.123)
que se obt´em usando as equa¸ c˜oes (6.112) e (6.121).
124

Dinˆamica Estoc´astica e Irreversibilidade
Se quisermos obter a probabilidade estacion´ aria P(∞) a partir da transfor-
mada de Laplace
´
P(z), utilizamos a f´ormula
P(∞) = lim
z→0
z
´
P(z), (6.124)
que se obt´em da seguinte maneira: partindo de
z
´
P(z) =
_

0
P(t)ze
−zt
dt (6.125)
e, fazendo uma integral por partes,
z
´
P(z) = P(0) +
_

0
P

(t)e
−zt
dt. (6.126)
Tomando o limite z →0, temos:
lim
z→0
z
´
P(z) = P(0) +
_

0
P

(t)dt = P(∞). (6.127)
6.11 EXPANS
˜
AO PERTURBATIVA
Suponha que desejemos calcular o vetor estacion´ ario P correspondente `a matriz
de evolu¸ c˜ao W, isto ´e, queremos obter a solu¸ c˜ao de
WP = 0. (6.128)
Para fazer uma expans˜ao em s´erie, imaginamos que W possa ser escrito na forma
W = W
0
+λV, (6.129)
onde W
0
´e uma matriz de evolu¸ c˜ao n˜ao perturbada e λV a perturba¸ c˜ao. Preten-
demos obter as propriedades do sistema descrito pelo operador W como s´eries
de potˆencia em λ. Supomos conhecidos os conjuntos dos autovetores `a direita
¦φ
n
¦, `a esquerda ¦χ
n
¦ e dos autovalores ¦Λ
n
¦ da matriz de evolu¸ c˜ao W
0
. Eles
satisfazem as equa¸ c˜oes
W
0
φ
n
= Λ
n
φ
n
e χ
n
W
0
= Λ
n
χ
n
. (6.130)
Denotamos por Λ
0
= 0 autovalor nulo de W
0
. O correspondente autovetor `a
direita φ
0
identifica-se com o vetor estacion´ ario P
0
de W
0
, e o vetor `a esquerda
χ
0
identifica-se com o vetor de referˆencia Ω, ou seja,
φ
0
= P
0
e χ
0
= Ω. (6.131)

125 Equa¸ c˜ao Mestra
Al´em disso, temos as seguintes propriedades:
χ
n
φ
n
′ = δ
nn
′ e

n
φ
n
χ
n
= I, (6.132)
onde I ´e a matriz identidade. A partir desses resultados, ´e f´acil ver que W
0
possui a seguinte expans˜ao:
W
0
=

n(=0)
φ
n
Λ
n
χ
n
, (6.133)
onde o termo n = 0 foi exclu´ıdo pois Λ
0
= 0. Para isso basta usar a identidade
W
0
= W
0
I e as propriedades contidas nas express˜oes (6.130) e (6.132).
Em seguida, fazemos a hip´ otese de que P possa ser desenvolvido em s´erie de
potˆencias de λ, ou seja,
P = P
0
+λP
1

2
P
2

3
P
3
+.... (6.134)
Substituindo em (6.128) e tendo em vista (6.129), obtemos a seguinte equa¸ c˜ao:
(W
0
+λV )(P
0
+λP
1

2
P
2

3
P
3
+...) = 0. (6.135)
Como os coeficientes das diversas potˆencias de λ devem se anular, conclu´ımos
que
W
0
P

= −V P
ℓ−1
, ℓ ≥ 1. (6.136)
Multiplicando ambos os membros da equa¸ c˜ao (6.134) por Ω e levando em
conta que ΩP = 1 e que ΩP
0
= χ
0
φ
0
= 1, obtemos mais uma propriedade:
ΩP

= 0, ℓ ,= 0. (6.137)
Em seguida, vamos definir a matriz R por
R =

n(=0)
φ
n
1
Λ
n
χ
n
(6.138)
que possui a seguinte propriedade:
RW
0
= W
0
R = I −φ
0
χ
0
= I −P
0
Ω. (6.139)
Isto ´e, a matriz R ´e a matriz inversa de W
0
dentro do subspa¸ co cujos vetores
s˜ ao ortogonais ao vetor φ
0
. Para verificar essa propriedade, basta multiplicar
a express˜ao da defini¸ c˜ao de R pela expans˜ao de W
0
dada por (6.133) e usar a
ortogonalidade (6.132) entre os autovetores de W
0
.
126

Dinˆamica Estoc´astica e Irreversibilidade
Multiplicando ambos os membros da equa¸ c˜ao (6.136) por R e usando a
propriedade (6.139), temos:
(I −P
0
Ω)P

= −V RP
ℓ−1
, ℓ ≥ 1. (6.140)
Mas, de (6.137), ΩP

= 0 para ℓ ≥ 1, de modo
P

= −RV P
ℓ−1
, ℓ ≥ 1. (6.141)
que ´e a equa¸ c˜ao que fornece P

recursivamente. A partir dessa equa¸ c˜ao, obtemos:
P

= (−RV )(−RV )...(−RV )P
0
= (−RV )

P
0
, (6.142)
que d´a P

a partir de P
0
. Substituindo na expans˜ao (6.134), obtemos finalmente:
P = P
0
+

ℓ=1
(−λRV )

P
0
. (6.143)
Tendo em vista que
(I +λRV )
−1
= I +

ℓ=1
(−λRV )

(6.144)
podemos escrever ainda
P = (I +λRV )
−1
P
0
. (6.145)
A m´edia ¸F) dada por
¸F) = ΩFP (6.146)
calcula-se usando a express˜ao (6.143) para P, isto ´e,
¸F) = ΩFP
0
+

ℓ=1
ΩF(−λRV )

P
0
, (6.147)
ou seja,
¸F) = f
0
+

ℓ=1
λ

f

, (6.148)
onde
f
0
= ΩFP
0
, f

= ΩF(−RV )

P
0
. (6.149)
Assim, se conseguirmos determinar os coeficientes f

, temos o desenvolvimento
da m´edia ¸F) em potˆencias de λ.

127 Equa¸ c˜ao Mestra
BIBLIOGRAFIA
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
McQuarrie, D. A. 1967. ”Stochastic Approach to Chemical Kinetics”. J.
Appl. Prob., 4, 413.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Schl¨ ogl, F. 1972. ”Chemical reaction models for non-equilibrium phase tran-
sitions”. Z. Phys., 53, 147.
Tom´ e, T. 1996. Irreversibilidade: Modelos de Rede com Dinˆ amicas Estoc´ asticas.
Tese de Livre-Docˆencia, Instituto de F´ısica, Universidade de S˜ao Paulo.
EXERC
´
ICIOS
1. Uma maneira de resolver numericamente uma equa¸ c˜ao de Fokker-Planck
´e discretiz´ a-la. A discretiza¸ c˜ao espacial de uma equa¸ c˜ao de Fokker-Planck
resulta numa equa¸ c˜ao mestra. Demonstre essa afirma¸ c˜ao para a equa¸ c˜ao
de Smoluchowski, apresentada na se¸ c˜ao 4.1, usando as seguintes apro-
xima¸ c˜oes para a primeira e segunda derivadas de uma fun¸ c˜ao espacial
F(x):
F(x + ∆x) −F(x)
∆x
e
F(x + ∆x) −2F(x) +F(x −∆x)
(∆x)
2
.
Quanto valem as taxas de transi¸ c˜ao, nessa aproxima¸ c˜ao?
2. Aplique o m´etodo do exerc´ıcio anterior `a equa¸ c˜ao de Kramers correspon-
dente a uma part´ıcula sujeita a uma for¸ ca el´astica, apresentado no exemplo
128

Dinˆamica Estoc´astica e Irreversibilidade
8 da cap´ıtulo 4. Calcule numericmente, discretizando o tempo, a distri-
bui¸ c˜ao das posi¸ c˜oes e das velocidades para diversos instantes. Calcule
tamb´em as distribui¸ c˜oes estacion´ arias. Considere como condi¸ c˜ao inicial
que a part´ıcula esteja em repouso na origem do sistema de coordenadas.
3. Use o m´etodo da fun¸ c˜ao geratriz para determinar a solu¸ c˜ao da equa¸ c˜ao
mestra correspondente ao modelo das urnas de Ehrenfest.
4. Considere as seguintes rea¸ c˜oes:
A+X

↽ 2X,
B +X

↽ C,
onde as concentra¸ c˜oes das esp´ecies A, B, e C s˜ ao mantidas constantes por
meio de reservat´ orios. Escreva a equa¸ c˜ao mestra e a equa¸ c˜ao de evolu¸ c˜ao
para o valor m´edio ¸n) do n´ umero de mol´eculas da esp´ecie X. Use a
aproxima¸ c˜ao mais simples para determinar ¸n) como fun¸ c˜ao do tempo e o
valor estacion´ ario.
5. O mesmo exerc´ıcio anterior para o caso das rea¸ c˜oes
A+ 2X

↽ 3X,
B +X

↽ C.
Mostre tamb´em que nesse caso o sistema exibe uma transi¸ c˜ao de primeira
ordem.
6. Mostre que a fun¸ c˜ao geratriz f(x, t) correspondente `a equa¸ c˜ao mestra
(6.61) obedece a equa¸ c˜ao diferencial

∂t
f(x, t) = (
1
x
−1)Bf(x, t) + (x −1)/f(x, t),
onde / e B s˜ ao dois operadores diferenciais definidos por
/x
n
= a
n
x
n
e Bx
n
= b
n
x
n
.
Escreva explicitamente esses operadores para o caso linear a
n
= α
1

1
n
e b
n
= α
2

2
n.
7. Considere a seguinte matriz de evolu¸ c˜ao W correspondente a um sistema
com dois estados 1 e 2:
W =
_
−b q
b −q
_
,

129 Equa¸ c˜ao Mestra
onde b ´e a taxa de transi¸ c˜ao 1 → 2 e q ´e a taxa de transi¸ c˜ao 2 → 1.
Determine as potˆencias W

e a partir dela obtenha as matrizes e
tW
e (zI −
W)
−1
. Determine ent˜ ao o vetor probabilidade P(t) e sua tranformada de
Laplace
´
P(z), usando a condi¸ c˜ao inicial
P(0) =
_
p
1
p
2
_
.
Determine P(∞) atrav´es de P(∞) = lim
z→0
z
´
P(z).
8. Considere um sistema com dois estados descrito pela matriz de evolu¸ c˜ao
do exerc´ıcio anterior. Escolhendo
W
0
= b
_
−1 1
1 −1
_
, V =
_
0 1
0 −1
_
, λ = q −b,
determine os autoestados de W
0
e a partir dele calcule R. Obtenha ent˜ ao
a expans˜ao do vetor probabilidade estacion´ aria P de W em potˆencias de
λ. Em seguida efetue a somat´oria.
9. Use a propriedade RW
0
= I − P
0
Ω e a equa¸ c˜ao W = W
0
+ λV para
mostrar que P
0
= (I +λRV )P e assim demonstrar a equa¸ c˜ao (6.145).
7
M
´
etodo de Monte Carlo
7.1 INTRODUC¸
˜
AO
De acordo com a mecˆ anica estat´ıstica, as propriedades de um sistema em equ´ılibrio
termodinˆ amico s˜ ao obtidas a partir de uma distribui¸ c˜ao de probabilidade P(s),
conhecida a priori, e definida para os poss´ıveis estados (microsc´opicos) s do
sistema. Seja f(s) uma propriedade, isto ´e, uma fun¸ c˜ao de estado. A m´edia ¸f)
´e dada por
¸f) =

s
f(s)P(s), (7.1)
onde
P(s) =
1
Z
exp¦−βH(s)¦ (7.2)
e Z ´e a fun¸ c˜ao de parti¸ c˜ao dada por
Z =

s
exp¦−βH(s)¦. (7.3)
O m´etodo de Monte Carlo fornece uma estimativa para qualquer m´edia ¸f)
e consiste no seguinte. Suponha que um certo n´ umero M de estados seja gerado
de acordo com a probabilidade P(s); ent˜ ao a m´edia aritm´etica
1
M
M

i=1
f(s
i
) (7.4)
132

Dinˆamica Estoc´astica e Irreversibilidade
ser´a uma estimativa para ¸f) onde s
1
, s
2
, ..., s
M
s˜ ao os estados gerados. A
estimativa ser´a tanto melhor quanto maior for o valor de M. Em seguida, deve-
mos resolver o problema de gerar estados com a probabilidade desejada P(s).
A solu¸ c˜ao se encontra na constru¸ c˜ao de um processo markoviano cuja probabi-
lidade estacion´ aria seja P(s). Isto ´e, devemos construir uma matriz estoc´astica
T(s, s

) tal que

s

T(s, s

)P(s

) = P(s). (7.5)
Esse problema ´e o inverso do que se apresenta usualmente em processos mar-
kovianos. Em geral a matriz T ´e dada e desejamos determinar P. Aqui P ´e
dado e desejamos obter T. Em geral podemos ter mais de uma solu¸ c˜ao para esse
´ ultimo problema o que ´e muito conveniente do ponto de vista computacional.
A maneira utilizada para construir a matriz estoc´astica ´e fazer uso da condi¸ c˜ao
de balanceamento detalhado, isto ´e, constru´ımos T(s, s

) tal que
T(s, s

)P(s

) = T(s

, s)P(s). (7.6)
A equa¸ c˜ao (7.5) fica automaticamente satisfeita desde que

s

T(s

, s) = 1. (7.7)
7.2 ALGORITMO DE METROPOLIS
Um dos algoritmos mais utilizados para construir a matriz estoc´astica ´e o de-
nominado algoritmo de Metropolis. Para cada estado s definimos um conjunto
V (s) de estados vizinhos a s e adotamos T(s

, s) = 0 para o caso em que s

n˜ao
perten¸ ca a essa vizinhan¸ ca. Isto significa que a transi¸ c˜ao de s para estados fora
de sua vizinhan¸ ca ´e proibida.
´
E importante escolher as vizinhan¸ cas dos diversos
estados de modo que se um dado estado s

n˜ao pertence `a vizinhan¸ ca de um
outro estado s ent˜ ao s n˜ao pertence `a vizinhan¸ ca de s

. Por simplicidade todas
as vizinhan¸ cas s˜ ao escolhidas com o mesmo n´ umero de estados que denotamos
por N.
Para um estado s

que perten¸ ca `a vizinhan¸ ca de s, a matriz estoc´astica ´e
definida por
T(s

, s) =
1
N
exp¦−β[H(s

) −H(s)]¦, se H(s

) > H(s), (7.8)
e
T(s

, s) =
1
N
, se H(s

) ≤ H(s), (7.9)

133 M´etodo de Monte Carlo
desde que s

seja distinto de s. O elemento diagonal ´e dado por
T(s, s) = 1 −

s

(=s)
T(s

, s). (7.10)
Para mostrar que a condi¸ c˜ao de balanceamento detalhado (7.6) est´ a satis-
feita, considere dois estados s
1
e s
2
tais que H(s
1
) > H(s
2
). Nesse caso, de
acordo com as equa¸ c˜oes (7.8) e (7.9), temos:
T(s
1
, s
2
) =
1
N
exp¦−β[H(s
1
) −H(s
2
)] e T(s
2
, s
1
) =
1
N
. (7.11)
Por outro lado,
P(s
1
) =
1
Z
exp¦−βH(s
1
)¦ e P(s
2
) =
1
Z
exp¦−βH(s
2
)¦. (7.12)
Substituindo esses resultados em (7.6), vemos que a condi¸ c˜ao de balanceamento
(7.6) est´ a satisfeita.
´
E importante notar que na constru¸ c˜ao de T(s

, s) n˜ao
necessitamos de Z, mas t˜ ao-somente da diferen¸ ca entre H(s

) e H(s).
Se as vizinhan¸ cas forem escolhidas de forma que qualquer estado puder ser
alcan¸ cado a partir de qualquer outro, garantimos que a matriz estoc´astica ser´a
regular e, portanto, para ℓ suficientemente grande, o estado s

ser´a escolhido
com a probabilidade de equil´ıbrio P(s

).
Computacionalmente, come¸ camos por um estado qualquer s
0
. A partir dele,
ge- ramos uma seq¨ uˆencia de estados s
1
, s
2
, s
3
... da seguinte forma. Supo-
nha que no ℓ-´esimo instante o estado seja s

. No instante seguinte escolhemos
aleatoriamente um estado qualquer da vizinhan¸ ca de s

. Suponha que o estado
escolhido seja s


. Calculamos ent˜ ao a diferen¸ ca ∆H = H(s


) −H(s

).
a) Se ∆H ≤ 0, ent˜ ao o novo estado ser´a de fato s


, isto ´e, s
ℓ+1
= s

ℓ.
b) Se ∆H > 0, calculamos p = exp¦−β∆H¦ e geramos um n´ umero aleat´ orio
ξ igualmente distribu´ıdo no intervalo [0, 1]. Se ξ ≤ p ent˜ ao s
ℓ+1
= s


, caso
contr´ario s
ℓ+1
= s

, isto ´e, o estado n˜ao se altera.
Ap´os descartar os primeiros D estados, podemos usar os M estados seguintes
para estimar a m´edia ¸f) de qualquer fun¸ c˜ao de estado por
1
M
M

ℓ=1
f(s
ℓ+D
). (7.13)
7.3 OSCILADOR HARM
ˆ
ONICO
Como exemplo de aplica¸ c˜ao do m´etodo de Monte Carlo, vamos considerar aqui
um oscilador quˆantico unidimensional cuja probabilidade de equil´ıbrio ´e dada
134

Dinˆamica Estoc´astica e Irreversibilidade
por
P(n) =
1
Z
exp¦−βE(n)¦, E(n) = αn, n = 0, 1, 2, ..., (7.14)
onde α ´e uma constante. A vizinhan¸ ca do estado n ser´a composta pelos estados
n + 1 e n − 1, com exce¸ c˜ao do estado n = 0 que ser´a tratado mais adiante.
O algoritmo de Metropolis ´e constru´ıdo como segue. Suponha que num certo
instante o estado seja n. No instante seguinte:
a) escolhemos um dos estados n+1 ou n−1 com igual probabilidade, nesse
caso, 1/2.
b) Se o estado for n + 1, ent˜ ao ∆H = α(n + 1) − αn = α > 0. Esse estado
ser´a o novo estado com probabilidade exp¦−βα¦.
c) Se o estado for n − 1, ent˜ ao ∆H = α(n − 1) − αn = −α < 0. E o novo
estado ser´a n −1.
Assim,
T(n + 1, n) =
1
2
q (7.15)
e
T(n −1, n) =
1
2
, (7.16)
onde q = exp¦−βα¦. O elemento diagonal ´e dado por
T(n, n) = 1 −T(n + 1, n) −T(n −1, n) =
1
2
p, (7.17)
onde p = 1 −q. Essas equa¸ c˜oes s˜ ao v´ alidas para n = 1, 2, 3, ...
Quando n = 0, a vizinhan¸ ca ser´a o estado n = 1. Para que a condi¸ c˜ao de
balanceamento detalhada seja satisfeita, devemos ter
T(1, 0)P(0) = T(0, 1)P(1), (7.18)
de onde obtemos
T(1, 0) =
1
2
q. (7.19)
Portanto, quando n = 0, o novo estado ser´a n = 1 com probabilidade q/2. O
estado ser´a o mesmo com probabilidade 1 −q/2, isto ´e,
T(0, 0) = 1 −
1
2
q. (7.20)
As equa¸ c˜oes (7.15), (7.16), (7.17), (7.19) e (7.20) definem a matriz estoc´astica
T(m, n) que possui como probabilidade de equil´ıbrio P(n) = exp¦−βαn¦/Z.

135 M´etodo de Monte Carlo
7.4 MODELO DE ISING
´
E bem conhecido que certos materiais magn´eticos como o ferro possuem uma
magnetiza¸ c˜ao permanente que desaparece quando o material ´e aquecido a tem-
peraturas maiores do que a temperatura de Curie. Dizemos que, em tempe-
raturas baixas, o sistema est´ a numa fase termodinˆ amica ordenada e, em altas
temperaturas, numa fase desordenada. A descri¸ c˜ao mais simples de tal fenˆomeno
´e dada pelo modelo de Ising.
Considere um reticulado e suponha que em cada ponto do reticulado exista
um ´atomo magn´etico. O estado de um ´atomo magn´etico ´e caracterizado pela
dire¸ c˜ao do momento dipolo magn´etico. No modelo de Ising o momento de dipolo
magn´etico se encontra na dire¸ c˜ao do eixo z ou em dire¸ c˜ao contr´aria a z. Assim,
o momento de dipolo µ
i
do i-´esimo ´atomo ´e dado por
µ
i
= γσ
i
, (7.21)
onde γ ´e uma constante e a vari´avel σ
i
toma os valores +1 caso o momento
de dipolo aponte na dire¸ c˜ao z e −1 em caso contr´ario. O estado total, ou
configura¸ c˜ao, do sistema fica completamente especificado pelas vari´aveis σ
1
, σ
2
,
σ
3
, ... , σ
N
, onde N ´e o n´ umero total de ´atomos magn´eticos. Como cada vari´avel
toma dois valores, o n´ umero total de configura¸ c˜oes ´e igual a 2
N
.
Considere agora dois ´atomos vizinhos i e j. Eles podem estar em quatro
estados: em dois deles os dipolos s˜ ao paralelos entre si e nos outros dois eles s˜ ao
antiparalelos. Para favorecer o ordenamento ferromagn´etico, vamos considerar
que a situa¸ c˜ao de menor energia seja aquela em que os dipolos sejam paralelos.
Assim, a energia desses dois ´atomos ´e dada por −Jσ
i
σ
j
onde J > 0 ´e uma
constante que representa a intera¸ c˜ao entre os dipolos magn´eticos. A energia
total E(σ) correspondente `a configura¸ c˜ao σ = (σ
1
, σ
2
, σ
3
, ..., σ
N
) ser´a pois
E(σ) = −J

(ij)
σ
i
σ
j
, (7.22)
onde a soma se extende sobre os pares de ´atomos vizinhos. Se o sistema estiver
sujeito a um campo externo na dire¸ c˜ao z, ent˜ ao a energia ter´ a um termo adicional
devido `a intera¸ c˜ao dos dipolos com o campo, isto ´e,
E(σ) = −J

(ij)
σ
i
σ
j
−H

i
σ
i
, (7.23)
onde H ´e uma constante proporcional ao campo.
Em equil´ıbrio termodinˆ anico a uma temperatura T, a probabilidade P(σ)
136

Dinˆamica Estoc´astica e Irreversibilidade
de encontrar o sistema na configura¸ c˜ao σ ´e dada por
P(σ) =
1
Z
exp¦−βE(σ)¦, (7.24)
onde β = 1/(k
B
T), sendo k
B
a constante de Boltzmann, e Z ´e a fun¸ c˜ao de
parti¸ c˜ao dada por
Z =

σ
exp¦−βE(σ)¦, (7.25)
onde a soma se extende sobre todas a 2
N
configura¸ c˜oes.
Entre as propriedades termodinˆ amicas que desejamos calcular est˜ ao:
a) a magnetiza¸ c˜ao m´edia
/= ¸M(σ)), (7.26)
onde
M(σ) =

i
σ
i
, (7.27)
b) a susceptibilidade
X =
1
k
B
T
¦¸[M(σ)]
2
) −/
2
¦, (7.28)
c) a energia m´edia
U = ¸E(σ)), (7.29)
d) a capacidade t´ermica
C =
1
k
B
T
2
¦¸[E(σ)]
2
) −U
2
¦. (7.30)
Em seguida, vamos descrever o m´etodo de Monte Carlo, que usa o algoritmo
de Metropolis, para obter configura¸ c˜oes σ com a probabilidade dada por (7.24).
Come¸ camos por gerar uma configura¸ c˜ao inicial de forma aleat´ oria. A partir
dela outras configura¸ c˜oes s˜ ao geradas. Suponha que num certo instante a con-
figura¸ c˜ao seja σ = (σ
1
, σ
2
, σ
3
, ..., σ
N
). A pr´oxima configura¸ c˜ao ser´a escolhida
como segue.
Um ´atomo ´e escolhido ao acaso, digamos, o i-´esimo ´atomo. Considere ent˜ ao
a configura¸ c˜ao σ
i
= (σ
1
, σ
2
, σ
3
, ... , −σ
i
, ..., σ
N
) em que o momento de dipolo
do ´atomo escolhido foi invertido. Calculamos em seguida a diferen¸ ca de energia
∆E = E(σ
i
) −E(σ), que ´e dada por
∆E = 2Jσ
i
¦

δ
σ
i+δ
+H¦, (7.31)
onde a soma se estende sobre os ´atomos vizinhos ao ´atomo i.

137 M´etodo de Monte Carlo
a) Se ∆E ≤ 0, ent˜ ao a nova configura¸ c˜ao ser´a σ
i
.
b) Se ∆E > 0, ent˜ ao calculamos p = exp¦−β∆E¦ e geramos um n´ umero
aleat´ orio ξ igualmente distribu´ıdo no intervalo [0, 1].
b1) Se ξ ≤ p, ent˜ ao a nova configura¸ c˜ao ser´a σ
i
.
b2) Se ξ > p, a configura¸ c˜ao continuar´ a a mesma, isto ´e, ser´a σ.
Usando esse procedimento, iremos gerar uma seq¨ uˆencia de configurac˜oes.
Para cada configura¸ c˜ao calculamos as fun¸ c˜oes de estado desejadas, como por
exemplo, M(σ), [M(σ)]
2
, E(σ), e [E(σ)]
2
. As estimativas das m´edias s˜ ao obtidas
a partir das m´edias aritm´eticas dessas grandezas, depois de descartarmos as
configura¸ c˜oes iniciais, como mostra a f´ormula (7.13).
7.5 SISTEMA CL
´
ASSICO DE MOL
´
ECULAS
Uma substˆ ancia simples, como o oxigˆenio, nitrogˆenio ou argˆonio, apresenta trˆes
fases termodinˆ amicas, s´ olido, l´ıquido ou vapor (ou g´ as), de acordo com a press˜ao
e temperatura em que ela se encontra. Esses trˆes estados da mat´eria podem ser
previstos teoricamente admitindo-se que as mol´eculas tenham uma intera¸ c˜ao
atrativa quando a distˆancia entre elas ´e grande, e repulsiva a curtas distˆancias.
Para o caso dos gases nobres, a energia de intera¸ c˜ao entre duas mol´eculas sepa-
radas por uma distˆancia r ´e bem representada pelo potencial de Lennard-Jones
φ(r) = ǫ¦(
a
r
)
12
−(
a
r
)
6
¦, (7.32)
onde ǫ e a s˜ ao dois parˆ ametros positivos.
Podemos imaginar tamb´em potenciais de intera¸ c˜ao menos realistas como o
potencial de intera¸ c˜ao entre esferas r´ıgidas de diˆametro a dado por
φ(r) =
_
∞, r < a,
0, a ≤ r,
(7.33)
ou ainda o potencial entre esferas r´ıgidas atrativas dado por
φ(r) =
_
¸
_
¸
_
∞, r < a,
−ǫ, a ≤ r < b,
0, b ≤ r.
(7.34)
Um sistema de esferas r´ıgidas, entretanto, apresenta somente duas fases termo-
dinˆ amicas, uma fase s´ olida e uma fase fluida. J´a um sistema de esferas atrativas
pode apresentar as trˆes fases.
138

Dinˆamica Estoc´astica e Irreversibilidade
A energia potencial total E de um conjunto de N mol´eculas confinadas num
recipiente de volume V ´e dada por
E =
1
2

i

j(=i)
φ(r
ij
), (7.35)
onde r
ij
= [r
i
−r
j
[ sendo r
i
a posi¸ c˜ao da i-´esima mol´ecula. A soma se estende
sobre todos os pares de mol´eculas. A altas temperaturas as propriedades ter-
modinˆ amicas s˜ ao obtidas a partir da mecˆ anica estat´ıstica cl´assica. De acordo
com essa teoria, a densidade de probabilidade ρ(r
1
, r
2
, r
3
, , ..., r
N
) de encontrar
a primeira mol´ecula na posi¸ c˜ao r
1
, a segunda na posi¸ c˜ao r
2
etc., independente
de suas velocidades, ´e dada por
ρ(x) =
1
Q
exp¦−βE(x)¦, (7.36)
onde Q´e a integral de configura¸ c˜ao que torna ρ normalizado e x denota a cole¸ c˜ao
de todas as posi¸ c˜oes das particulas, isto ´e, x = (r
1
, r
2
, r
3
, ..., r
N
).
A partir dessa densidade de probabilidade, pode-se obter qualquer proprie-
dade que possa ser escrita como uma m´edia configuracional, isto ´e, como m´edia
de fun¸ c˜oes de x. Exemplos de tais fun¸ c˜oes s˜ ao a pr´opria energia potencial E(x)
e o virial W(x) definido por
W =
1
2

i

j(=i)
r
ij
F(r
ij
), (7.37)
onde F(r) = −dφ(r)/dr. Assim, podemos calcular a m´edia da energia potencial,
dada por
U
p
= ¸E(x)), (7.38)
a variˆancia da energia potencial, dada por
Ω = ¸[E(x)]
2
) −U
2
p
(7.39)
e a m´edia do virial, dada por
Ψ = ¸W(x)). (7.40)
Essas grandezas est˜ ao relacionadas com a energia interna U, a capacidade
t´ermica a volume constante C
V
e a press˜ao p atrav´es das f´ormulas
U =
d
2
Nk
B
T +U
p
, (7.41)
C
V
=
d
2
Nk
B
+

k
B
T
2
(7.42)

139 M´etodo de Monte Carlo
e
PV = Nk
B
T +
Ψ
d
, (7.43)
onde d ´e a dimens˜ao do espa¸ co onde se movem as mol´eculas.
Em seguida descrevemos o m´etodo de Monte Carlo, que usa o algoritmo
de Metropolis, para obter configura¸ c˜oes x = (r
1
, r
2
, r
3
, ..., r
N
) com a probabili-
dade dada por (7.36). Come¸ camos por gerar uma configura¸ c˜ao inicial de forma
aleat´ oria. Num recipiente c´ ubico de volume V , escolhemos aleatoriamente N
posi¸ c˜oes onde ser˜ao colocadas as N mol´eculas. A partir dessa configura¸ c˜ao, ou-
tras s˜ ao geradas sucessivamente. Suponha que num certo instante a configura¸ c˜ao
seja x = (r
1
, r
2
, r
3
, ..., r
N
˙
). A pr´oxima configura¸ c˜ao ser´a escolhida como segue.
Uma mol´ecula ´e escolhida ao acaso, digamos, a i-´esimo mol´ecula. Escolhemos
tamb´em, de forma aleat´ oria, um ponto qualquer dentro de uma vizinhan¸ ca de
r
i
. A vizinhan¸ ca pode ser um cubo de um determinado tamanho, centrado em
r
i
. Considere a configura¸ c˜ao x

= (r
1
, r
2
, r
3
, ..., r

i
, ..., r
N
) em que r

i
denota o
ponto escolhido. Calculamos ent˜ ao a diferen¸ ca de energia ∆E = E(x

) −E(x),
que ´e dada por
∆E =

j
[φ([r

i
−r
j
[) −φ([r
i
−r
j
[)], (7.44)
onde a soma se estende sobre as mol´eculas, exceto a pr´opria mol´ecula i.
a) Se ∆E ≤ 0, ent˜ ao a nova configura¸ c˜ao ser´a x

. Em outras palavras, a
mol´ecula escolhida ´e deslocada para a nova posi¸ c˜ao r

i
.
b) Se ∆E > 0, ent˜ ao calculamos p = exp¦−β∆E¦ e geramos um n´ umero
aleat´ orio ξ igualmente distribu´ıdo no intervalo [0, 1].
b1) Se ξ ≤ p, ent˜ ao a nova configura¸ c˜ao ser´a x

, ou seja, a mol´ecula escolhida
´e colocada na nova posi¸ c˜ao r

i
.
b2) Se ξ > p, a configura¸ c˜ao continuar´ a a mesma, isto ´e, ser´a x e a mol´ecula
escolhida permanece na mesma posi¸ c˜ao.
Usando esse procedimento, iremos gerar uma seq¨ uˆencia de configurac˜oes.
Para cada configura¸ c˜ao calculamos as fun¸ c˜oes de estado desejadas, como por
exemplo, E(x), [E(x)]
2
, e W(x). As estimativas das m´edias s˜ ao obtidas a par-
tir das m´edias aritm´eticas dessas grandezas, depois de descartarmos as confi-
gura¸ c˜oes iniciais.
No caso dos potenciais de esferas duras (7.33) e (7.34), se a posi¸ c˜ao escolhida
para o deslocamento de uma mol´ecula estiver dentro da esfera de uma outra
mol´ecula, ela n˜ao se deslocar´ a.
140

Dinˆamica Estoc´astica e Irreversibilidade
7.6 FUNC¸
˜
AO DE CORRELAC¸
˜
AO
A simula¸ c˜ao num´erica de sistemas interagentes, como o modelo de Ising ou um
sistema cl´assico de mol´eculas, permite o c´alculo de grandezas macrosc´ opicas ou
termo- dinˆ amicas, mas tamb´em permite o c´alculo de grandezas microsc´ opicas.
Uma delas ´e a fun¸ c˜ao de correla¸ c˜ao que mede a correla¸ c˜ao entre as part´ıculas.
Essa grandeza ´e fundamental para o conhecimento do estado de agrega¸ c˜ao ou
do ordenamento das part´ıculas.
Para um sistema de Ising, definimos a fun¸ c˜ao de correla¸ c˜ao G(r) por
G(r) =
1
N

r

¸σ
r
′ σ
r

+r
). (7.45)
Dada uma configura¸ c˜ao de spins, gerada pela simula¸ c˜ao, essa fun¸ c˜ao ´e obtida da
seguinte forma. Para cada par de spins separados por um vetor r, somamos +1
se os dois spins do par forem de mesmo sinal e −1 se forem de sinais contr´arios.
O resultado da soma deve ser multiplicado por 2 e dividido por N. Para grandes
separa¸ c˜oes, a correla¸ c˜ao ¸σ
r
′ σ
r

+r
) se aproxima de ¸σ
r
′ )¸σ
r

+r
) = (//N)
2
de
modo que G(∞) = (//N)
2
.
´
E f´acil mostrar que a susceptibilidade por s´ıtio χ = X/N se relaciona com a
fun¸ c˜ao de correla¸ c˜ao G(r) por
χ =
1
k
B
T

r
¦G(r) −G(∞)¦. (7.46)
Para sistemas moleculares a fun¸ c˜ao de correla¸ c˜ao radial G(r) ´e definida por
G(r) =
1
N

i

j(=i)
¸δ(r
ij
−r)). (7.47)
Dada uma configura¸ c˜ao de mol´eculas, ela ´e determinada da seguinte forma.
Fixamos um intervalo ∆r. Para uma certa mol´ecula i, determinamos o n´ umero
∆n
i
de outras mol´eculas que est˜ ao a uma distˆancia entre r −∆r/2 e r + ∆r/2
dela. Fazemos o mesmo para todas as mol´eculas. A fun¸ c˜ao distribui¸ c˜ao radial
ser´a dada por (

i
∆n
i
)/(N∆r). Alternativamente, podemos contar quantos
pares de mol´eculas possuem distˆancia entre as mol´eculas do par entre r −∆r/2
e r + ∆r/2. A fun¸ c˜ao distribui¸ c˜ao ser´a igual a esse n´ umero multiplicado por 2
e dividido por N.
A partir da fun¸ c˜ao de correla¸ c˜ao, pode-se obter as grandezas U
p
e Ψ dadas
por
U
p
=
N
2
_
φ(r)G(r)dr (7.48)

141 M´etodo de Monte Carlo
e
Ψ =
N
2
_
rF(r)G(r)dr. (7.49)
BIBLIOGRAFIA
Allen, M. P. & Tildesley, D. J. 1987. Computer Simulation of Liquids.
Clarendon Press.
Binder, K. (ed.), 1986. Monte Carlo Method in Statistical Physics. 2. ed.
Springer-Verlag, Berlin.
Binder, K. & Heermann, D. H. 1992. Monte Carlo Simulation in Statistical
Physics. 2. ed. Springer-Verlag, Berlin.
Hammersley, J. M. & Handscomb, D. C. 1964. Monte Carlo Methods.
Chapman and Hall, London.
Heermann, D. W. 1990. Computer Simulation Methods in Theoretical Physics.
2. ed. Springer-Verlag, Berlin.
Metropolis, N.; Rosenbluth, A. W.; Rosenbluth, M. N.; Teller, A. H.
& Teller, E. 1953. ”Equation of state calculations by fast computing
machines”. J. Chem. Phys., 21, 1087.
Mouritsen, O. G. 1984. Computer Studies of Phase Transitions and Critical
Phenomena. Springer-Verlag, Berlin.
Oliveira, M. J. de 1996. ”Numerical stochastic methods in statistical mecha-
nics”. Int. J. Mod. Phys., 10, 1313.
Tom´ e, T. 1996. Irreversibilidade: Modelos de Rede com Dinˆ amicas Estoc´ asticas.
Tese de Livre-Docˆencia, Instituto de F´ısica, Universidade de S˜ao Paulo.
Wood, W. W. & Jacobson, J. D. 1957. ”Preliminary results from a recal-
culation of the Monte Carlo equation of state of hard spheres”. J. Chem.
Phys., 27, 1207.
EXERC
´
ICIOS
1. Simule o oscilador harmˆonico de acordo com as probabilidades de transi¸ c˜ao
apresentadas na se¸ c˜ao 7.3. Determine numericamente P(n) e compare com
a express˜ao exata.
142

Dinˆamica Estoc´astica e Irreversibilidade
2. Construa uma cadeia de Markov cuja probabilidade estacion´ aria P(ℓ) seja
proporcional a (2ℓ + 1) exp¦−βaℓ(ℓ + 1)¦. A partir das probabilidades
de transi¸ c˜ao, fa¸ ca a simula¸ c˜ao num´erica para determinar numericamente
P(ℓ).
3. Use o algoritmo de Metropolis para simular o modelo de Ising unidimen-
sional cuja energia ´e dada por
E(σ) = −J
N

ℓ=1
σ

σ
ℓ+1
,
com condi¸ c˜oes peri´ odicas de contorno. Determine a energia m´edia, a ca-
pacidade t´ermica e a susceptibilidade. Fa¸ ca um gr´ afico dessas grandezas
como fun¸ c˜ao da temperatura e compare com as express˜oes exatas. Use
como condi¸ c˜ao inicial uma configura¸ c˜ao aleat´ oria de spins.
4. Use o algoritmo de Metropolis para simular o modelo de Ising definido
numa rede quadrada com LL = N s´ıtios e com condi¸ c˜oes peri´ odicas de
contorno. Calcule as grandezas
m =
1
N
¸[M(σ)[) e χ

=
1
N
¦¸[M(σ)]
2
) −¸[M(σ)[)
2
¦
e fa¸ ca um gr´ afico delas como fun¸ c˜ao da temperatura para L = 4, 8, 16 e
32.
5. Considere um g´ as de N esferas r´ıgidas de diˆametro a confinadas num reci-
piente c´ ubico de volume V . Use o m´etodo de Monte Carlo para determinar
a fun¸ c˜ao de correla¸ c˜ao radial G(r). A partir dela, determine a press˜ao p
que no caso de esferas duras est´ a relacionada com a fun¸ c˜ao de correla¸ c˜ao
por
pV
Nk
B
T
= 1 +
a
2d
G(a),
onde d = 3. Notar que G(a) ´e a altura do primeiro pico da fun¸ c˜ao de
correla¸ c˜ao radial em r = a.
6. O mesmo problema anterior mas para o caso de N discos r´ıgidos de
diˆametro a confinados numa superf´ıcie quadrada de ´area A (d = 2).
7. O mesmo problema anterior mas para um sistema unidimensional (d =
1) de N bast˜ oes r´ıgidos de comprimento a confinados num segmento de
comprimento L.

143 M´etodo de Monte Carlo
8. Simule um g´ as de esferas duras atrativas. Calcule a fun¸ c˜ao distribui¸ c˜ao
radial e a press˜ao.
9. Simule um g´ as de part´ıculas interagindo com o potencial de Lennard-
Jones. Calcule a energia m´edia e a capacidade t´ermica.
8
Transic¸
˜
oes de Fase e Criticalidade
8.1 INTRODUC¸
˜
AO
A ´agua, quando aquecida a press˜ao constante, entra em ebuli¸ c˜ao a uma tempe-
ratura bem definida, transformando-se em vapor. Para cada valor da press˜ao a
que est´ a submetida a ´agua, corresponde uma temperatura de transi¸ c˜ao. Num di-
agrama temperatura-press˜ao, a transi¸ c˜ao l´ıquido-vapor ´e representada por uma
linha que possui uma inclina¸ c˜ao positiva, pois a temperatura de transi¸ c˜ao cresce
com o aumento da press˜ao. Sobre a linha de transi¸ c˜ao o l´ıquido e o vapor co-
existem em quaisquer propor¸ c˜oes. Entretanto, o l´ıquido e o vapor apresentam
densidades bem definidas que dependem apenas da temperatura de transi¸ c˜ao.
`
A medida que aumentamos a temperatura ao longo da linha de coexistˆencia, as
diferen¸ cas entre as densidades do l´ıquido e do vapor se tornam cada vez menores
e acabam se anulando num ponto cr´ıtico caracterizado por uma temperatura e
uma press˜ao bem definidas. Nesse ponto, o l´ıquido e o vapor tornam-se indis-
tintos e a linha de coexistˆecnia tem seu t´ermino. A temperaturas mais altas,
n˜ao h´a mais distin¸ c˜ao entre a fase l´ıquida e a fase gasosa.
Outros tipos de transi¸ c˜ao de fase ocorrem em f´ısica da mat´eria condensada.
Uma substˆ ancia ferromagn´etica, quando aquecida, perde sua imanta¸ c˜ao a uma
temperatura bem definida, denominada temperatura de Curie, tornando-se pa-
146

Dinˆamica Estoc´astica e Irreversibilidade
ramagn´etica. Nessa fase paramagn´etica a substˆ ancia s´ o adquire magnetiza¸ c˜ao se
aplicarmos um campo magn´etico. Quando o campo ´e retirado, a magnetiza¸ c˜ao
se anula. Na fase ferromagn´etica, ao contr´ario, uma magnetiza¸ c˜ao permanece
mesmo depois de se retirar o campo magn´etico.
A liga met´alica zinco-cobre sofre uma transi¸ c˜ao ordem-desordem com a va-
ria¸ c˜ao da temperatura. Imagine que a estrutura cristalina da liga met´alica
seja composta por duas redes entrela¸ cadas que denominaremos de subrede A e
subrede B. A temperaturas baixas, os ´atomos de cobre se localizam preferenci-
almente em umas das subredes, enquanto os ´atomos de zinco se localizam pre-
ferencialmente na outra subrede. A temperaturas altas, entretanto, um ´atomo
de zinco, ou de cobre, pode ser encontrado em qualquer subrede com igual pro-
babilidade. Aumentando-se a temperatura, a liga passa de uma fase ordenada
para uma fase desordenada ao se atingir a temperatura cr´ıtica. Abaixo da tem-
peratura cr´ıtica, podem ocorrer dois estados ordenados. Em um deles os ´atomos
de zinco se localizam com maior probabilidade na subrede A (e o cobre em B),
e no outro, em B (e o cobre em A). A simetria ´e maior na fase desordenada e
menor na fase ordenada de modo que, na temperatura cr´ıtica, h´a uma quebra
espontˆ anea de simetria.
Para a descri¸ c˜ao das transi¸ c˜oes de fase, ´e importante introduzir-se a no¸ c˜ao
de parˆ ametro de ordem cuja propriedade mais importante ´e assumir o valor nulo
na fase desordenada ou na de maior simetria e o valor n˜ao nulo na fase ordenada
ou na de menor simetria. No caso da transi¸ c˜ao l´ıquido-vapor, podemos defini-
lo como a diferen¸ ca entre a densidade do l´ıquido e do vapor em coexistˆencia.
Em sistemas que apresentam ferromagnetismo, o parˆ ametro de ordem ´e sim-
plesmente a magnetiza¸ c˜ao do sistema, denominada espontˆ anea ou remanente.
Na liga met´alica discutida acima, podemos defini-la como a diferen¸ ca da densi-
dade do zinco nas duas subredes. Em todos os trˆes sistemas discutidos acima, o
parˆ ametro de ordem se anula para temperaturas acima da temperatura cr´ıtica.
8.2 QUEBRA ESPONT
ˆ
ANEA DE SIMETRIA
´
E importante entender de que maneira, do ponto de vista matem´atico, ocorre
uma transi¸ c˜ao de fase e como surge uma quebra espontˆ anea de simetria em
um sistema descrito por um processo estoc´astico. Uma quebra espontˆ anea de
simetria e a conseq¨ uente transi¸ c˜ao de fase, como a de ordem-desordem descrita
na se¸ c˜ao anterior, ocorrem quando, ao variarmos um parˆ ametro externo (e. g.,
a temperatura), o sistema passa de uma fase desordenada para uma fase orde-
nada, caracterizada por dois estados ordenados. O surgimento de dois estados

147 Transi¸ c˜oes de Fase e Criticalidade
ordenados assinala a ocorrˆencia da quebra espontˆ anea de simetria e est´ a relaci-
onado com a existˆencia de mais de um estado estacion´ ario. Devemos examinar
ent˜ ao quais s˜ ao as condi¸ c˜oes para que um processo estoc´astico possa ter mais
de um estado estacion´ ario.
Se um processo estoc´astico, regido por uma equa¸ c˜ao mestra, encerrar um
n´ umero finito de estados e se qualquer estado puder ser alcan¸ cado a partir
de qualquer outro, n˜ao haver´ a quebra espontˆ anea de simetria. Basta aplicar o
teorema de Perron-Frobenius `a matriz de evolu¸ c˜ao correspondente para concluir
que h´a um ´ unico estado estacion´ ario. Assim, enquanto o n´ umero de estados
for finito, h´a apenas um estado estacion´ ario e, portanto, n˜ao ´e poss´ıvel haver
transi¸ c˜ao de fases. Para a ocorrˆencia de uma transi¸ c˜ao de fase, ou melhor, para
haver mais de um estado estacion´ ario, ´e necess´ario, embora n˜ao suficiente, que
o n´ umero de estados seja infinito.
Para ilustrar essa id´eia, vamos examinar um modelo simples que descreve
qualitativamente a liga met´alica mencionda na se¸ c˜ao anterior. Considere uma
rede cristalina composta por duas subredes A e B e suponha que a liga seja
constitu´ıda por N ´atomos de zinco e um n´ umero igual de ´atomos de cobre.
A intervalos regulares de tempo, um ´atomo de zinco ´e escolhido ao acaso e ´e
trocado com um ´atomo de cobre que esteja num s´ıtio de outra subrede. Se no
instante inicial todos os ´atomos de zinco estiverem em uma subrede, depois de
algum tempo, as duas subredes acabar˜ao tendo o mesmo n´ umero de ´atomos de
zinco, em m´edia, o que caracteriza o estado desordenado. Portanto, no regime
estacion´ ario, a liga met´alica se encontrar´ a no estado desordenado.
O modelo assim definido ´e semelhante ao modelo das urnas de Ehrenfest
visto no cap´ıtulo 5. Vimos l´ a que a probabilidade estacion´ aria se identifica com
a distribui¸ c˜ao binomial. No presente caso, portanto, a probabilidade de que a
subrede A tenha n ´atomos de zinco ´e dada por
P
n
=
1
2
N
(
N
n
). (8.1)
Essa distribui¸ c˜ao possui um m´aximo quando a subrede A tiver a metade dos
´atomos de zinco. Quando N for grande, a distribui¸ c˜ao se aproxima de uma
gaussiana. A presen¸ ca de um ´ unico pico na distribui¸ c˜ao de probabilidades indica
que o sistema apresenta uma ´ unica fase termodinˆ amica, nesse caso uma fase
desordenada.
Vamos agora modificar esse modelo para que a distribui¸ c˜ao estacion´ aria
possa vir a ter dois m´aximos no lugar de um ´ unico. A intervalos regulares
de tempo, escolhemos um ´atomo de zinco ao acaso e em seguida verificamos
em que subrede ele se encontra. Se estiver na subrede que possui um n´ umero
148

Dinˆamica Estoc´astica e Irreversibilidade
menor de ´atomos de zinco, ele ´e trocado com um ´atomo de cobre que esteja
em outra subrede. Se entretanto, pertencer `a subrede com um n´ umero maior
de ´atomos de zinco, essa troca ´e realizada com uma probabilidade p. Se p for
pequeno, esperamos que haja um ac´ umulo de ´atomos de zinco na subrede que
inicialmente tenha mais ´atomos de zinco.
Seja n o n´ umero de ´atomos de zinco na subrede A. De acordo com as regras
acima, a taxa de transi¸ c˜ao W
n

,n
de n →n

´e dada por
W
n−1,n
= α
n
N
, n ≤
N
2
, (8.2)
W
n−1,n
= α
n
N
p, n >
N
2
, (8.3)
e
W
n+1,n
= α
N −n
N
p, n <
N
2
, (8.4)
W
n+1,n
= α
N −n
N
, n ≥
N
2
, (8.5)
onde 0 ≤ p ≤ 1. A taxa de transi¸ c˜ao vale zero em outros casos. Notar que
a taxa de transi¸ c˜ao possui a propriedade sim´etrica W
N−n

,N−n
= W
n

,n
, isto
´e, ela ´e invariante pela mudan¸ ca n

→ N − n

e n → N − n

. O processo ´e
governado pela equa¸ c˜ao mestra
d
dt
P
n
= W
n,n+1
P
n+1
+W
n,n−1
P
n−1
−W
n+1,n
P
n
−W
n−1,n
P
n
. (8.6)
Pode-se verificar que a probabilidade estacion´ aria ´e
P
n
=
1
Z
(
N
n
) exp¦C[n −
N
2
[¦, (8.7)
onde Z ´e uma constante de normaliza¸ c˜ao e a constante C est´ a relacionada com
p atrav´es de
p = e
−C
. (8.8)
Notar que a distribui¸ c˜ao de probabilidade possui a simetria P
N−n
= P
n
, isto ´e,
ela ´e invariante pela transforma¸ c˜ao n →N −n.
Se p = 1, a distribui¸ c˜ao estacion´ aria possui um ´ unico m´aximo que ocorre em
n = N/2, pois nesse caso reca´ımos no modelo de Ehrenfest examinado acima.
Se p < 1, entretanto, a distribui¸ c˜ao de probabilidade estacion´ aria possui dois
m´aximos o que pode ser verificado mais facilmente se examinarmos o caso em
que N e n s˜ ao muito grandes. Para isso ´e conveniente considerar a distribui¸ c˜ao
de probabilidades ρ(x) da vari´avel x = n/N que d´a a concentra¸ c˜ao de ´atomos

149 Transi¸ c˜oes de Fase e Criticalidade
de zinco na subrede A. Usando a f´ormula de Stirling e tendo em vista que
ρ(x) = NP
n
, obtemos:
ρ(x) =
1
Z
¸
2πN
x(1 −x)
exp¦−Nf(x)¦, (8.9)
onde
f(x) = xln x + (1 −x) ln(1 −x) −C[x −
1
2
[. (8.10)
Essa fun¸ c˜ao possui m´ınimos em x = x
+
e x = x

onde
x
+
=
1
1 +p
, e x

=
p
1 +p
, (8.11)
o que significa que ρ(x) possui m´aximos nesses mesmos pontos.
Alguns pontos devem ser destacados. Primeiro, a distˆancia entre os m´aximos,
dada por
x
+
−x

=
1 −p
1 +p
, (8.12)
se anula, quando p →1. Quando p = 1, vimos que a distribui¸ c˜ao de probabili-
dade possui um ´ unico m´aximo em n = N/2 ou x = 1/2. Portanto, temos dois
regimes: um caracterizado por dois m´aximos, enquanto p < 1, e outro por um
´ unico quando p = 1. Ao redor de x = x
+
e de x = x

, a distribui¸ c˜ao de pro-
babilidades ρ(x) possui a forma de uma gaussiana cuja largura ´e proporcional
a
_
p/N.
Segundo, no limite em que N →∞(n´ umero infinito de estados) e para p < 1,
a altura dos m´aximos cresce sem limites enquanto que o valor da distribui¸ c˜ao de
probabi- lidades em x = 1/2 se anula. Portanto, nesse limite a distribui¸ c˜ao de
probabilidades da v´ ari´avel x ´e caracterizada por dois deltas de Dirac localizados
simetricamente em x = x
+
e x = x

. Isso significa que, no limite N → ∞, o
sistema exibe dois estados estacion´ arios. Dependendo da condi¸ c˜ao inicial, o
sistema pode atingir um ou outro estado.
Para entender de que maneira o sistema poder´a atingir um dos dois estados
estacion´ arios e portanto apresentar a quebra espontˆ anea de simetria, vamos
examinar um sistema com N muito grande. Suponha que o processo estoc´astico
seja simulado numericamente a partir de uma condi¸ c˜ao inicial em que a subrede
A esteja repleta de ´atomos de zinco. Durante um certo intervalo de tempo, que
denotamos por τ, a concentra¸ c˜ao de ´atomos de zinco em A flutuar´ a em torno
de x
+
= 1/(1 +p) com um dispers˜ao proporcional a p/N. O intervalo de tempo
τ ser´a tanto maior quanto maior for N. Quando N →∞, a dispers˜ao se anula
de modo que a subrede A sempre ter´ a um n´ umero maior de ´atomos de zinco
150

Dinˆamica Estoc´astica e Irreversibilidade
do que a subrede B. Nesse caso τ → ∞ e temos uma quebra espontˆ anea de
simetria.
´
E importante notar ainda que a simula¸ c˜ao num´erica de um tal modelo, ou de
outros modelos semelhantes, deve apresentar uma distribui¸ c˜ao de probabilidades
sim´etrica j´a que as simula¸ c˜oes s˜ ao realizadas com N finito. Entretanto, pelo
fato de o tempo de observa¸ c˜ao em simula¸ c˜oes num´ericas n˜ao ser infinito existe
a possibilidade de que a distribui¸ c˜ao de probabilidade n˜ao seja sim´etrica se N
for suficientemente grande. Em outras palavras, o fato de N ser finito, embora
grande, fica compensado por um tempo finito de observa¸ c˜ao o que acarreta uma
distribui¸ c˜ao assim´etrica para x.
O parˆ ametro de ordem m desse modelo ´e definido como diferen¸ ca entre as
concentra¸ c˜oes x
+
e x

dos dois estados ordenados, ou seja,
m =
1 −p
1 +p
. (8.13)
Assim, na fase ordenada, m ,= 0, enquanto que na fase desordenada, m = 0.
8.3 MODELO CIN
´
ETICO DE BRAGG-WILLIAMS
No modelo introduzido na se¸ c˜ao anterior, a probabilidade de transferˆencia de
um ´atomo de zinco para a outra subrede n˜ao leva em conta o n´ umero de ´atomos
de zinco presentes em cada subrede. No presente modelo, se o ´atomo de zinco
escolhido estiver na subrede que possui um n´ umero menor de ´atomos de zinco,
ele ´e transferido para a outra subrede. Se entretanto, ele estiver na subrede com
um n´ umero maior de ´atomos de zinco, ele ´e transferido `a outra subrede com
uma probabilidade que ´e tanto maior quanto menor for o n´ umero de ´atomos de
zinco na subrede em que o ´atomo se encontra.
De acordo com essas considera¸ c˜oes, as taxas de transi¸ c˜ao do modelo s˜ ao
dadas por
W
n−1,n
= α
n
N
, n ≤
N
2
, (8.14)
W
n−1,n
= α
n
N
p
n
, n >
N
2
, (8.15)
e
W
n+1,n
= α
N −n
N
p
N−n
, n <
N
2
, (8.16)
W
n+1,n
= α
N −n
N
, n ≥
N
2
, (8.17)
onde n ´e o n´ umero de ´atomos de zinco na subrede A e p
n
pode ser entendido
como a probabilidade de transferˆencia de um ´atomo de zinco da subrede A para
a subrede B. A taxa de transi¸ c˜ao vale zero em outros casos.

151 Transi¸ c˜oes de Fase e Criticalidade
A dependˆencia de p
n
com n ser´a escolhida de tal forma que a probabilidade
estacion´ aria P
n
correspondente ao processo estoc´astico definido pelas taxas de
transi¸ c˜ao acima seja
P
n
=
1
Z
(
N
n
) exp¦
K
2N
(n −
N
2
)
2
¦, (8.18)
que ´e a distribui¸ c˜ao de probabilidade correspondente ao modelo de equil´ıbrio
denominado modelo de Bragg-Williams, onde a constante K ´e proporcional ao
inverso da temperatura absoluta. Podemos verificar que a escolha deve ser
p
n
= exp¦−
K
2N
(2n −N −1)¦. (8.19)
A probabilidade estacion´ aria (8.18) possui dois m´aximos enquanto o parˆ ametro
K for maior do que um certo valor cr´ıtico K
c
e um ´ unico em caso contr´ario.
Para determinar o valor cr´ıtico K
c
, vamos examinar a distribui¸ c˜ao de probabili-
dades P
n
para o caso em que N ´e muito grande. Novamente, vamos considerar
a distribui¸ c˜ao de probabilidades ρ(x) da vari´avel x que d´a a concentra¸ c˜ao de
´atomos de zinco na subrede A. Usando a f´ormula de Stirling, obtemos:
ρ(x) =
1
Z
¸
2πN
x(1 −x)
exp¦−Nf(x)¦, (8.20)
onde
f(x) = xln x + (1 −x) ln(1 −x) −
K
2
(x −
1
2
)
2
. (8.21)
Os m´aximos locais de ρ(x) ocorrem nos m´ınimos locais de f(x).
Para analisar o comportamento da fun¸ c˜ao f(x), determinamos suas deriva-
das, dadas por
f

(x) = ln x −ln(1 −x) −K(x −
1
2
), (8.22)
e
f
′′
(x) =
1
x
+
1
1 −x
−K. (8.23)
Como f

(1/2) = 0 e f
′′
(1/2) = 4 − K, ent˜ ao a fun¸ c˜ao f(x) possui um m´ınimo
em x = 1/2 enquanto K < 4. O m´ınimo ´e absoluto, pois f
′′
(x) > 0 para K < 4.
Quando K > 4, a fun¸ c˜ao f(x) passa a ter um m´aximo local em x = 1/2,
e desenvolve dois m´ınimos que se localizam de forma sim´etrica em rela¸ c˜ao a
x = 1/2. Portanto, a distribui¸ c˜ao de probabilidades estacion´ aria ρ(x) possui
um ´ unico m´aximo para K ≤ K
c
= 4 (b ≥ b
c
= e
−4
) e dois m´aximos para
K > K
c
(b < b
c
).
Esses dois m´ınimos s˜ ao solu¸ c˜oes de f

(x) = 0. Quando K se aproxima do
valor cr´ıtico K
c
, esses m´ınimos se localizam proximo de x = 1/2. Portanto, para
152

Dinˆamica Estoc´astica e Irreversibilidade
determinar os m´ınimos para valores de K pr´oximos do valor cr´ıtico, fazemos uma
expans˜ao de f

(x) em torno de x = 1/2 at´e termos da ordem de (x−1/2)
3
, isto
´e,
f

(x) = (4 −K)(x −
1
2
) +
4
3
(x −
1
2
)
3
. (8.24)
Os m´ınimo ocorrem para
x
±
=
1
2
±
_
3
4
(K −4). (8.25)
O parˆ ametro de ordem m ´e definido da mesma maneira como foi feito na se¸ c˜ao
anterior de modo que m = x
+
−x

, ou seja,
m =
_
3(K −K
c
), K
c
= 4. (8.26)
Para K ≤ K
c
o parˆ ametro de ordem se anula.
Um sistema descrito pelo modelo cin´etico de Bragg-Williams apresenta, por-
tanto, uma quebra espontˆ anea de simetria e uma transi¸ c˜ao de fase quando o
parˆ ametro externo K atinge seu valor cr´ıtico K
c
. Quando K ≤ K
c
h´a um ´ unico
estado estacion´ ario correspondente a uma fase desordenada. Quando K > K
c
h´a dois estados estacion´ arios correspondentes a fases ordenadas.
8.4 TEORIA CIN
´
ETICA DE LANDAU
Vamos estudar um sistema que sofre uma quebra espontˆ anea de simetria e
uma conseq¨ uente transi¸ c˜ao de fase associada a um parˆ ametro de ordem m.
A transi¸ c˜ao ´e induzida por um parˆ ametro externo p tal que, acima de um valor
cr´ıtico p
c
, o estado estacion´ ario ´e desordenado (m = 0) e que, abaixo desse
valor, o estado estacion´ ario ´e ordenado (m ,= 0).
Suponha que esse sistema seja descrito por uma distribui¸ c˜ao de probabilida-
des cuja evolu¸ c˜ao temporal seja governada por uma equa¸ c˜ao mestra. Suponha,
ainda, que o sistema seja definido num reticulado e que a cada ponto r es-
teja associado uma vari´avel estoc´astica σ
r
cuja m´edia ¸σ
r
) se identifique com o
parˆ ametro de ordem m. Podemos imaginar um cristal magn´etico tal que o mo-
mento magn´etico de cada s´ıtio do cristal seja proporcional `a vari´avel σ
r
. Dessa
forma o parˆ ametro de ordem m pode ser identificado como uma grandeza pro-
porcional `a magnetiza¸ c˜ao do sistema magn´etico. Tendo em vista que a equa¸ c˜ao
mestra ´e uma equa¸ c˜ao diferencial de primeira ordem no tempo, segue-se que a
evolu¸ c˜ao temporal de m ´e da foma dm/dt = f onde f ´e uma fun¸ c˜ao n˜ao s´ o de
m = ¸σ
r
) mas tamb´em de outros momentos, tais como ¸σ
r
), ¸σ
r
σ
r
′ ), ¸σ
r
σ
r
′ σ
r
′′ )
etc.

153 Transi¸ c˜oes de Fase e Criticalidade
Na teoria de Landau, a simetria possui um papel fundamental de modo
que ima- ginamos que o sistema seja invariante por determinadas opera¸ c˜oes de
simetria. Como o sistema ´e descrito por uma equa¸ c˜ao mestra, isso implica que
as taxas de transi¸ c˜ao devem ser invariantes pelas mesmas opera¸ c˜oes de simetria.
Essa invariˆancia nos leva a admitir que a fun¸ c˜ao f deve se transformar, sob uma
opera¸ c˜ao de simetria, da mesma maneira que m. Aqui vamos examinar apenas o
caso em que o sistema seja invariante pela ope- ra¸ c˜ao de invers˜ao σ
r
→−σ
r
, que
significa trocar o sinal de todas as vari´aveis estoc´asticas. Sob essa opera¸ c˜ao de
simetria, o parˆ ametro de ordem m se modifica de acordo com a transforma¸ c˜ao
m → −m. A fun¸ c˜ao f se modifica da mesma maneira, isto ´e, de acordo com a
transforma¸ c˜ao f →−f.
Vamos admitir, de forma aproximada, que f seja fun¸ c˜ao somente de m de
modo que
d
dt
m = f(m). (8.27)
Aplicando a opera¸ c˜ao de invers˜ao em ambos os lados dessa equa¸ c˜ao, temos
d
dt
(−m) = −f(m). (8.28)
Comparando as equa¸ c˜ao (8.27) e (8.28), vemos que
f(−m) = −f(m). (8.29)
Supondo, em analogia com a teoria original de Landau, que f(m) possa ser
desenvolvida em s´erie de potˆencias de m, ent˜ ao a expans˜ao s´ o deve ter potˆencias
impares, ou seja,
f(m) = c
1
m+c
3
m
3
+c
5
m
5
+.... (8.30)
A solu¸ c˜ao da equa¸ c˜ao (8.27) pode ser feita explicitamente para o caso em que
f(m) pode ser aproximada pelos primeiros termos da expans˜ao. Dessa forma
consideramos a seguinte equa¸ c˜ao de evolu¸ c˜ao para o parˆ ametro de ordem:
d
dt
m = −am−bm
3
, (8.31)
onde a e b s˜ ao dois parˆ ametros dependentes de p, sendo que b ´e estritamente
positivo para que m seja limitado e a podendo ser positivo, negativo ou nulo.
Multiplicando ambos os lados de (8.31) por m chegamos `a equa¸ c˜ao
1
2
d
dt
m
2
= −am
2
−bm
4
, (8.32)
que pode ser entendida como uma equa¸ c˜ao diferencial em m
2
. A solu¸ c˜ao de
(8.32), para o caso em que a ,= 0, ´e
m
2
=
a
ce
2at
−b
, (8.33)
154

Dinˆamica Estoc´astica e Irreversibilidade
onde c ´e uma constante que deve ser determinada a partir da condi¸ c˜ao inicial.
Quando t →∞obtemos solu¸ c˜oes distintas dependendo do sinal do parˆ ametro
a. Se a > 0 ent˜ ao m → 0, que corresponde ao estado desordenado. Se a < 0
ent˜ ao m → ±m

onde m

=
_
[a[/b, que corresponde ao estado ordenado. De
posse desses resultados, podemos admitir que a depende de p de acordo com
a = A(p − p
c
), para valores de p pr´oximo de p
c
, onde A > 0. Dessa forma,
quando p estiver acima de seu valor cr´ıtico, o estado estacion´ ario ser´a desorde-
nado, m = 0; e abaixo desse valor, ordenado, m ,= 0. O parˆ ametro de ordem se
comporta portanto como
m

∼ (p
c
−p)
1/2
. (8.34)
Quando p > p
c
(a > 0) vemos, a partir da solu¸ c˜ao (8.33), que, para tempos
longos, m decai exponencialmente ao seu valor estacion´ ario. Escrevendo
m = m
0
e
−t/τ
, (8.35)
ent˜ ao o tempo de relaxa¸ c˜ao τ = 1/a . Logo, τ se comporta como
τ ∼ (p −p
c
)
−1
. (8.36)
Da mesma forma quando p < p
c
(a < 0), m decai exponencialmente ao seu valor
estacion´ ario m

, para tempos longos.
Quando p = p
c
(a = 0) o decaimento deixa de ser exponencial e passa a ser
alg´ebrico. A partir da equa¸ c˜ao
dm
dt
= −bm
3
, (8.37)
v´ alida para a = 0, vemos que a solu¸ c˜ao ´e m = 1/

2bt +c. O comportamento
assint´ otico de m para tempos longos ´e pois alg´ebrico e ´e dado por
m ∼ t
−1/2
. (8.38)
O parˆ ametro de ordem decai exponencialmente fora do ponto cr´ıtico com um
determinado tempo caracter´ıstico, o tempo de relax˜ao τ, cujo comportamento
´e dado por (8.36). Aproximando-se do ponto cr´ıtico, o tempo de relaxa¸ c˜ao
cresce sem limites acabando por divergir nesse ponto. Sobre o ponto cr´ıtico
o comportamento do parˆ ametro de ordem deixa de ser exponencial e se torna
alg´ebrico como dado pela express˜ao (8.38).
8.5 TEORIA DE ORNSTEIN-ZERNIKE
Vamos examinar agora a varia¸ c˜ao temporal da correla¸ c˜ao ¸σ
r
σ
r
′ ) = ρ
r

,r
entre
as vari´aveis estoc´asticas associadas aos s´ıtios r e r

. Estamos supondo que o sis-
tema possua invariˆancia translacional de modo que ρ
r

,r
= ρ
r

−r
s´ o dependa da

155 Transi¸ c˜oes de Fase e Criticalidade
diferen¸ ca r −r

. Como a equa¸ c˜ao mestra ´e uma equa¸ c˜ao diferencial de primeira
ordem no tempo, podemos aqui tamb´em imaginar que a evolu¸ c˜ao temporal de
ρ
r
´e da foma dρ
r
dt = g
r
onde g
r
´e uma fun¸ c˜ao n˜ao s´ o de ρ
r
mas tamb´em de
outros momentos.
Vamos supor, de forma aproximada, que g
r
seja fun¸ c˜ao apenas das cor-
rela¸ c˜oes de pares de maneira que
d
dt
ρ
r
= g
r
(¦ρ
r
′ ¦). (8.39)
Expandindo g
r
at´e termos lineares em ρ
r
′ , temos:
d
dt
ρ
r
=

r

A
r,r
′ ρ
r
′ . (8.40)
Em seguida fazemos a hip´ otese de que g
r
s´ o dependa das correla¸ c˜oes ρ
r
′ tais
que r

seja vizinho de r. Logo
d
dt
ρ
r
= Aρ
r
+B

δ
ρ
r+δ
, (8.41)
que pode ser escrito na forma
d
dt
ρ
r
= Cρ
r
+B

δ

r+δ
−ρ
r
), (8.42)
onde a soma se estende sobre os s´ıtios vizinhos do s´ıtio r. Supondo que as
varia¸ c˜oes da densidade sejam pequenas, a ´ ultima parcela do lado direito da
equa¸ c˜ao (8.42) pode ser aproximada pelo laplaciano da densidade de modo que
∂ρ
∂t
= Cρ +D∇
2
ρ. (8.43)
Procurando por solu¸ c˜oes com simetria esf´erica a equa¸ c˜ao acima se torna
∂ρ
∂t
= Cρ +D¦

2
ρ
∂r
2
+
(d −1)
r
∂ρ
∂r
¦, (8.44)
onde d ´e a dimens˜ao espacial do sistema em considera¸ c˜ao.
Vamos considerar daqui em diante somente o regime estacion´ ario para o qual
Cρ +D¦

2
ρ
∂r
2
+
(d −1)
r
∂ρ
∂r
¦ = 0, (8.45)
e procurar solu¸ c˜oes que decaiam com r. Para isso, ´e necess´ario que C ≤ 0. Em
uma dimens˜ao a solu¸ c˜ao ´e
ρ(r) = A
1
e
−r/ξ
, (8.46)
156

Dinˆamica Estoc´astica e Irreversibilidade
e para d > 1 a solu¸ c˜ao para grandes valores de r ´e dada por
ρ(r) = A
d
e
−r/ξ
r
(d−1)/2
, r ≫ξ, (8.47)
onde A
d
´e uma constante que s´ o depende da dimens˜ao e ξ =
_
D/[C[. Vemos
pois que ρ decai exponencialmente com a distˆancia com um comprimento de
correla¸ c˜ao ξ que diverge quando C se anula. Portanto, C = 0 indica o ponto
cr´ıtico de modo que escrevemos C = C
0
(p
c
−p), que ´e an´alogo ao que fizemos na
se¸ c˜ao anterior. Assim o comportamento do comprimento de correla¸ c˜ao ξ para p
pr´oximo de p
c
´e dado por
ξ ∼ (p −p
c
)
−1/2
. (8.48)
Ou seja, o comprimento de correla¸ c˜ao diverge quando nos aproximamos do ponto
cr´ıtico.
No ponto cr´ıtico, p = p
c
, devemos resolver a equa¸ c˜ao (8.45) para o caso em
que C = 0. Nesse caso a solu¸ c˜ao ser´a
ρ(r) =
A
d
r
d−2
, d > 2. (8.49)
Para d ≤ 2, n˜ao h´a solu¸ c˜ao que decaia com a distˆancia.
´
E interessante observar que a transformada de Fourier de ρ definida por
´ ρ(k) =
_
ρ(r)e
ik·r
d
d
r (8.50)
´e dada por
´ ρ(k) ∼
1
κ
2
+k
2
, κ = ξ
−1
. (8.51)
No ponto cr´ıtico ela ´e dada por
´ ρ(k) ∼
1
k
2
. (8.52)
Num sistema magn´etico, a susceptibilidade magn´etica χ mede a resposta da
magnetiza¸ c˜ao a um campo externo. Pode se mostrar que ela ´e proporcional `a
variˆancia da magnetiza¸ c˜ao, ou seja, proporcional a ´ ρ(0). Portanto, χ ∼ κ
−2
= ξ
2
de modo que, usando a express˜ao (8.48), conclu´ımos que o comportamento de
χ pr´oximo do ponto cr´ıtico ´e dado por
χ ∼ (p −p
c
)
−1
, (8.53)
e a susceptibilidade diverge no ponto cr´ıtico.

157 Transi¸ c˜oes de Fase e Criticalidade
8.6 EXPOENTES CR
´
ITICOS
Vimos na se¸ c˜ao anterior que pr´oximo do ponto cr´ıtico, o parˆ ametro de ordem
m se comporta como
m ∼ [ε[
β
, (8.54)
onde ε = p −p
c
e β = 1/2, e que a susceptibilidade χ se comporta como
χ ∼ ε
−γ
, (8.55)
com γ = 1. Os expoentes β e γ s˜ ao denominados expoentes cr´ıticos e po-
dem ser medidos experimentalmente. Verifica-se que os valores dos expoentes
cr´ıticos β e γ, obtidos acima a partir da teoria de Landau, n˜ao coincidem com
os valores experimentais. Isso ´e explicado se entendermos a teoria de Landau
como uma descri¸ c˜ao aproximada dos fenˆomenos cr´ıticos. De fato, a principal
hip´ otese utilizada na dedu¸ c˜ao dos expoentes, a de que certas fun¸ c˜oes possuem
desenvolvimento em s´erie de potˆencia, ´e em geral incorreta.
Podemos definir ainda outros expoentes cr´ıticos. O comprimento de cor-
rela¸ c˜ao espacial se comporta como
ξ ∼ [ε[
−ν
, (8.56)
enquanto que o tempo de relaxa¸ c˜ao se comporta como
τ ∼ ξ
z
. (8.57)
No ponto cr´ıtico, a correla¸ c˜ao de pares decai de acordo com
ρ(r) ∼
1
r
d−2+η
, r →∞, (8.58)
ou
´ ρ(k) ∼
1
k
2−η
, k →0. (8.59)
Ainda no ponto cr´ıtico o parˆ ametro de ordem decai de forma alg´ebrica conforme
m ∼ t
−ζ
. (8.60)
A partir dos resultados da se¸ c˜ao anterior, que devem ser tamb´em entendidos
como apro- xima¸ c˜oes, temos ν = 1/2, z = 2, η = 0 e ζ = 1/2. Todos os
expoentes cr´ıticos encontrados na se¸ c˜ao anterior s˜ ao denominados expoentes
cl´assicos.
Os expoentes cr´ıticos definidos acima n˜ao s˜ ao todos independentes mas est˜ ao
relacionados entre si por diversas rela¸ c˜oes. Duas delas s˜ ao
γ = (2 −η)ν (8.61)
158

Dinˆamica Estoc´astica e Irreversibilidade
e
ζ =
β
νz
. (8.62)
Outra rela¸ c˜ao ´e
2β +γ = dν, (8.63)
que ´e v´ alida para dimens˜oes d abaixo de uma dimens˜ao cr´ıtica d
c
. Para d ≥ d
c
a rela¸ c˜ao se torna 2β + γ = d
c
ν e os expoentes cr´ıticos cl´assicos passam a ser
v´ alidos.
BIBLIOGRAFIA
Baker, Jr., G. A. 1990. Quantitative Theory of Critical Phenomena. Acade-
mic Press, Boston.
Binney, J. J.; Dowrick, N. J.; Fisher, A. J. & Newman, M. E. J. 1992.
The Theory of Critical Phenomena. Clarendon Press, Oxford.
Konno, K. 1994. Phase Transitions of Interacting Particle Systems. World
Scientific.
Landau, L. D. & Lifshitz, E. M. 1958. Statistical Physics. Pergamon Press,
Oxford.
Liggett, T. M. 1985. Interacting Particle Systems. Springer-Verlag, New
York.
Marro, J. & Dickman, R. 1999. Nonequilibrium Phase Transitions. Cam-
bridge University Press, Cambridge.
Reichl, L. E. 1980. A Modern Course in Statistical Mechanics. University of
Texas Press, Austin.
Stanley, H. E. 1971. Introduction to Phase Transitions and Critical Pheno-
mena. Oxford University Press, New York.
Thompson, C. J. 1979. Mathematical Statistical Mechanics. Princeton Uni-
versity Press, Princeton.
Tom´ e, T. 1996. Irreversibilidade: Modelos de Rede com Dinˆ amicas Estoc´ asticas.
Tese de Livre-Docˆencia, Instituto de F´ısica, Universidade de S˜ao Paulo.
Tom´ e, T.; Brunstein, A. & Oliveira, M. J. de 2000. ”Symmetry and
universality in nonequilibrium models”. Physica A, 283, 107.

159 Transi¸ c˜oes de Fase e Criticalidade
Yeomans, J. M. 1992. Statistical Mechanics of Phase Transitions. Clarendon
Press, Oxford.
EXERC
´
ICIOS
1. Simule o modelo definido na se¸ c˜ao 8.2 para o caso de diversos valores de
p para N = 100. Fa¸ ca histogramas da concentra¸ c˜ao x = n/N.
2. Simule o modelo cin´etico de Bragg-Williams para o caso de diversos valores
de K para N = 100. Fa¸ ca histogramas da magnetiza¸ c˜ao da concentra¸ c˜ao
x = n/N.
3. Considere o modelo definido pela taxa de transi¸ c˜ao
W
n+1,n
= α(N −n)
1
2
¦1 +γS(2n −N)¦,
e
W
n−1,n
= αn
1
2
¦1 −γS(2n −N)¦,
onde S(x) ´e uma fun¸ c˜ao tal que S(x) = 1 para x > 0, S(x) = −1 para
x < 0, e S(x) = 0 para x = 0; e γ ´e um parˆ ametro definido no intervalo
0 ≤ γ ≤ 1. Simule esse modelo para diversos valores de γ e fazer os
respectivos histogramas da magnetiza¸ c˜ao. A simula¸ c˜ao pode ser feita da
seguinte maneira. Definimos vari´aveis σ
i
, com i = 1, 2, ..., N, que tomam
valores ±1. Escolhemos aleatoriamente uma delas. A probabilidade de a
vari´avel trocar de sinal ser´a (1−γ)/2, (1+γ)/2, ou 1/2, conforme 2n−N,
tenha o mesmo sinal de σ
i
, tenha o sinal contr´ario de σ
i
, ou 2n −N = 0,
respectivamante.

Sign up to vote on this title
UsefulNot useful