Intro Proc Est

Introduc¸ ˜ ao aos Processos Estoc´ asticos

Eduardo F. Costa e Marinho G. Andrade
com a colaborac¸ ˜ ao de Juliana Cobre
18 de abril de 2004
Sum´ ario
1 Processos de Bernoulli 2
1.1 O Processo de Bernoulli, X . . . . . . . . . . . . . . . . . . . . . 2
1.2 N´ umero de Sucessos em um Processo de Bernoulli, N . . . . . . . 4
1.2.1 Valor Esperado e Variˆ ancia de N . . . . . . . . . . . . . . 5
1.2.2 Distribuic¸ ˜ ao de N . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Tempo de Sucesso, T . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Valor Esperado e Variˆ ancia de T . . . . . . . . . . . . . . 10
1.3.2 Distribuic¸ ˜ ao de T . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2 Processo de Poisson 15
2.1 Hip´ oteses do Processo de Poisson . . . . . . . . . . . . . . . . . 15
2.1.1 Distribuic¸ ˜ ao de N
t
. . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Valor Esperado de N
t
e o Significado de λ . . . . . . . . . 19
2.1.3 Tempo de Chegada . . . . . . . . . . . . . . . . . . . . . 23
2.2 Tempo de Recorrˆ encia (Forward) . . . . . . . . . . . . . . . . . . 26
2.3 Superposic¸ ˜ ao de Processos de Poisson . . . . . . . . . . . . . . . 27
2.4 Decomposic¸ ˜ ao de um Processo de Poisson . . . . . . . . . . . . . 28
2.5 Exerc´ıcios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
Cap´ıtulo 1
Processos de Bernoulli
Neste cap´ıtulo estudaremos um processo estoc´ astico simples, denominado pro-
cesso de Bernoulli. Este ´ e um processo a parˆ ametro discreto no qual o conjunto
de parˆ ametros ´ e o conjunto dos n´ umeros inteiros, T ≡ N; al´ em disto, para cada
¯
t ∈ N fixo, ele assume apenas os valores discretos 0 e 1. Estudam-se tamb´ em dois
processos associados - o n´ umero de sucessos e o tempo de sucesso de um processo
de Bernoulli.
Apesar de sua simplicidade, o processo de Bernoulli serve para ilustrar concei-
tos, bem como algumas das principais quest˜ oes que surgem, associados a processos
estoc´ asticos. Ainda, o n´ umero de sucessos consiste em um caso particular de ca-
deia de Markov, a qual ser´ a estudada em detalhes subsequentemente.
1.1 O Processo de Bernoulli, X
O processo de Bernoulli tem uma relac¸ ˜ ao estreita com a id´ eia de ensaios de Ber-
noulli e de vari´ avel aleat´ oria binomial, conforme vimos em SCE-119. Recordando,
consideram-se um experimento E e um evento associado A, com probabilidade de
sucesso p; para n repetic¸ ˜ oes independentes deste experimento, o n´ umero de suces-
sos obtido ´ e uma vari´ avel aleat´ oria binomial com parˆ ametros n e p.
Nesta sec¸ ˜ ao, para cada repetic¸ ˜ ao de E associaremos uma vari´ avel aleat´ oria X
n
,
que mapeia “sucesso” da n-´ esima repetic¸ ˜ ao em 1 e “fracasso” em 0. Note que o
conjunto destas vari´ aveis, X = {X
n
, n = 1, 2, . . .}, satisfaz a definic¸ ˜ ao de processo
estoc´ astico; este ser´ a o chamado processo de Bernoulli. Este processo ´ e forma-
lizado a seguir, para facilitar futuras referˆ encias.
Definic¸ ˜ ao 1. Considere uma sequˆ encia de repetic¸ ˜ oes de um experimento E e os
eventos {A
n
; n =1, 2, . . .}, cada umdos quais estando associado ` a n-´ esima repetic¸ ˜ ao.
2
Considere, ainda,
X
n
= I
{A
n
}
sendo I a func¸ ˜ ao indicadora. O processo estoc´ astico X ={X
n
; n = 1, 2, . . .} ´ e cha-
mado de processo de Bernoulli com probabilidade de sucesso p se:
(a) A
1
, A
2
, . . . s˜ ao eventos independentes;
(b) P(A
n
) = p, P(
¯
A
n
) = 1−p, ∀n = 1, 2, . . ..
Note que X
1
, X
2
, . . . s˜ ao identicamente distribuidos e P ´ e a ´ unica medida de
probalidade em Ω que satisfaz as propriedades (a) e (b).
´
E comum referir-se ao
evento A
n
={X
n
= 1} como sendo um ‘sucesso’ e
¯
A
n
={X
n
= 0} como ‘fracasso’.
A Figura 1.1 ilustra uma realizac¸ ˜ ao do processo X.
1 2 3 4 5 6 7 8 9 10
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
T
X
Figura 1.1: Realizac¸ ˜ ao do processo de Bernoulli {X
n
, n = 1, 2, . . .}, com parˆ ametro
p = 0, 3.
Exemplo 1. Devido a interferˆ encias que incidem em uma certa linha de trans-
miss˜ ao de dados, h´ a uma probabilidade constante p = 0, 05 de que haja erro na
transmiss˜ ao de um bit. Defina X
n
como 1 ou 0 se o n-´ esimo bit recebido for errado
ou correto, respectivamente. Assumindo que a interferˆ encia incide independente-
mente na transmiss˜ ao de cada bit, as vari´ aveis aleat´ orias X
1
, X
2
, . . . s˜ ao indepen-
dentes. Ent˜ ao {X
n
; n = 1, 2, . . .} ´ e um processo de Bernoulli com probabilidade de
sucesso P(X
n
= 1) = p = 0.05.
Exemplo 2. Considere o c´ alculo da probabilidade de que os primeiros 2 bits sejam
recebidos corretamente e que os dois bits subsequentes sejam recebidos com erro.
Temos:
P(X
1
= X
2
= 0, X
3
= X
4
= 1) = P(X
1
= 0)P(X
2
= 0)P(X
3
= 1)P(X
4
= 1)
= (1−p)(1−p)pp = (1−p)
2
p
2
≈0, 00226
3
1.2 N´ umero de Sucessos em um Processo de Bernoulli, N
Considere as primeiras n tentativas de um processo de Bernoulli e considere o
n´ umero de sucessos obtido, denotado por N
n
. Note que N = {N
n
, n ∈ N} ´ e um
processo estoc´ astico, o qual ´ e estudado nesta sec¸ ˜ ao.
Definic¸ ˜ ao 2. Seja X um processo de Bernoulli com probabilidade de sucesso p.
Os n´ umeros de sucesso {N
n
, n ∈ N} s˜ ao definidos por
N
n
(w) =
_
0 se n = 0,
X
1
(w) +X
2
(w) +. . . +X
n
(w) se n = 1, 2, . . .
Uma realizac¸ ˜ ao do processo N ´ e mostrada na Figura 1.2.
1 2 3 4 5 6 7 8 9 10
0
0.5
1
1.5
2
2.5
3
T
N
Figura 1.2: Realizac¸ ˜ ao do processo {N
n
, n = 0, 1, . . . , 4} com parˆ ametro p = 0, 3,
correspondente a realizac¸ ˜ ao de X da Figura 1.1.
Observac¸ ˜ ao 1. Note que
N
n+m
−N
n
= X
n+1
+X
n+2
+. . . +X
n+m
´ e o n´ umero de sucessos associado ` as tentativas n+1, n+2, . . . , n+m. O processo
estoc´ astico {N
n
, n ∈ N} ´ e um processo estoc´ astico a parˆ ametro discreto e a v.a.
N
n
, com n fixo, ´ e discreta assumindo os valores 0, 1, 2, . . . n.
Exemplo 3. Considere a realizac¸ ˜ ao do processo de Bernoulli da Figura 1.2. Note
que o conhecimento do processo N
n
permite recuperar o processo de Bernoulli
original fazendo X
n
= N
n
−N
n−1
, n = 1, 2, . . .. Ent˜ ao, temos:
N
0
= 0; X
0
= 0
X
1
= N
1
−N
0
= 0
4
X
2
= N
2
−N
1
= 0
X
3
= N
3
−N
2
= 0
X
4
= N
4
−N
3
= 1,
em conformidade com a realizac¸ ˜ ao de X dada na Figura 1.1.
1.2.1 Valor Esperado e Vari ˆ ancia de N
Se {X
n
; n = 1, 2, . . .} ´ e um processo de Bernoulli com probabilidade de sucesso p.
Ent˜ ao para qualquer n, temos:
(i) E(X
n
) = E(X
2
n
) = E(X
3
n
) = . . . = p
(ii) Var(X
n
) = E(X
2
n
) −E
2
(X
n
) = p−p
2
= p(1−p) = p· q
(iii) E(α
X
n
) =α
0
P(X
n
= 0) +αP(X
n
= 1) = q+αp
onde α ≥0.
As propriedades (i), (ii) e (iii) s˜ ao provadas usando
E[g(X
n
)] = g(1) · p+g(0) · (1−p),
onde g(·) ´ e uma func¸ ˜ ao limitada. Para (iii) temos g(X
n
) =α
X
n
Usando a propriedade de linearidade do valor esperado e os resultados apre-
sentados acima para X
n
, temos:
(i) E(N
n
) = E(X
1
+X
2
+. . . +X
n
) = np;
(ii) Var(N
n
) =Var(X
1
+X
2
+. . . +X
n
) = npq;
(iii) E(N
2
n
) =Var(N
n
) +E
2
(N
n
) = npq+n
2
p
2
.
Podemos obter o valor E(N
2
n
) de forma direta como segue:
N
2
n
=
n

i=1
X
i
2
+
n

i=1
n

j=i
X
i
X
j
E(N
2
n
) =
n

i=1
E(X
i
2
) +
n

i=1
n

j=i
E(X
i
X
j
)
sendo E(X
i
2
) = p e E(X
i
X
j
) = p
2
temos que:
E(N
2
n
) = np+n(n−1)p
2
= np+n
2
p
2
−np
2
= np(1−p) +n
2
p
2
= npq+n
2
p
2
Estes c´ alculos indicam um caminho para se calcular os momentos de ordem
mais elevada para N
n
. Note que calculamos E(N
n
), Var(N
n
) sem conhecermos a
5
func¸ ˜ ao distribuic¸ ˜ ao de N
n
. No entanto se quisermos calcular E(g(N
n
)) onde g(·)
´ e uma func¸ ˜ ao limitada ´ e necess´ ario conhecermos a func¸ ˜ ao distribuic¸ ˜ ao de N
n
. O
uso da probabilidade condicional nas provas que se seguem ´ e uma das principais
t´ ecnicas usadas em estudos de processos estoc´ asticos.
1.2.2 Distribuic¸ ˜ ao de N
Um ponto fundamental para a an´ alise de um processo consiste em estabelecer as
distribuic¸ ˜ oes e distribuic¸ ˜ oes condicionadas. No caso emquest˜ ao (processo {N
n
, n ∈
N}), iniciamos observando que a vari´ avel aleat´ oria N
n
´ e binomial com parˆ ametro
p, o que permite escrever o seguinte resultado, de imediato; a prova ´ e omitida.
Lema 1. Para qualquer n ∈ N,
P(N
n
= k) =
_
n
k
_
p
k
(1−p)
n−k
.
Recordando da Observac¸ ˜ ao 1 que N
n+m
−N
n
=X
n+1
+. . . +X
n+m
´ e a soma de n
vari´ aveis aleat´ orias independentes, ´ e simples compreender que N
n+m
−N
n
tamb´ em
tem distribuic¸ ˜ ao binomial, como formalizado adiante.
Corol´ ario 1. Para qualquer n, m ∈ N,
P(N
m+n
−N
m
= k) =
_
n
k
_
p
k
(1−p)
n−k
.
Teorema 1. Para qualquer n, m ∈ N
P(N
m+n
−N
m
= k|N
0
, . . . , N
m
) = P(N
m+n
−N
m
= k) =
_
n
k
_
p
k
(1−p)
n−k
Demonstrac¸ ˜ ao. As vari´ aveis aleat´ orias N
0
, N
1
, . . . , N
m
s˜ ao determinadas por X
1
, X
2
, . . . , X
m
e vice-versa, da seguinte forma:
X
1
= N
1
, X
2
= N
2
−N
1
, . . . , X
m
= N
m
−N
m+1
,
de maneira que
P(N
m+n
−N
m
= k|N
0
, . . . , N
m
) = P(N
n+1
−N
m
= k|X
1
, X
2
, . . . , X
m
).
Como {X
m+1
, . . . , X
m+n
} ´ e independente de {X
1
, . . . , X
m
} temos que N
m+n
−N
m
=
X
m+1
, . . . , X
m+n
´ e independente de {X
1
, X
2
, . . . , X
m
}, logo podemos escrever
P(N
m+n
−N
m
= k|X
1
, . . . , X
m
) = P(N
m+n
−N
m
= k)
e o Corol´ ario 1 completa a prova.
6
Observac¸ ˜ ao 2. O Teorema 1 afirma que as distribuic¸ ˜ oes do processo N relativas
` as tentativas m+1, . . . , m+n s˜ ao independentes da hist´ oria passada at´ e m (i.e.,
a hist´ oria passada ´ e irrelevante). Este ´ e um caso particular de quando a hist´ oria
passada at´ e m−1 ´ e irrelevante mas a hist´ oria em m ´ e relevante; os processos
que satisfazem esta propriedade s˜ ao denominados Markovianos. Em consonˆ ancia,
lembre que o processo N ´ e um caso particular de cadeia de Markov, como j´ a
comentamos.
Corol´ ario 2. Seja n
0
=0 <n
1
<n
2
<· · · <n inteiros. Ent˜ ao as vari´ aveis aleat´ orias
N
n
1
−N
n
0
, N
n
2
−N
n
1
, . . . , N
n
j
−Nn
j−1
, s˜ ao independentes.
Demonstrac¸ ˜ ao. Seja j = 3, sem perda de generalidade. Usando o Teorema 1, ava-
liamos:
P(N
n
3
−N
n
2
,N
n
2
−N
n
1
, N
n
1
)
= P(N
n
3
−N
n
2
|N
n
2
−N
n
1
, N
n
1
)P(N
n
2
−N
n
1
, N
n
1
)
= P(N
n
3
−N
n
2
)P(N
n
2
−N
n
1
, N
n
1
)
= P(N
n
3
−N
n
2
)P(N
n
2
−N
n
1
|N
n
1
)P(N
n
1
)
= P(N
n
3
−N
n
2
)P(N
n
2
−N
n
1
)P(N
n
1
)
Observac¸ ˜ ao 3 (Incrementos Independentes). Vari´ aveis aleat´ orias da forma N
m+n

N
m
associada ao processo N podem ser encaradas como o ‘incremento’ do pro-
cesso no intervalo entre t =me t =m+n, no sentido que representama quantidade
da qual o processo ‘aumentou’ neste intervalo, ou seja,
N
n+m
= N
m
+(N
m+n
−N
m
).
O Corol´ ario 2 nos diz que os ‘incrementos’ no processo N s˜ ao independen-
tes ao longo de certos intervalos (note que os intervalos s˜ ao disjuntos, isto ´ e, a
intersec¸ ˜ ao entre eles ´ e nula). Quando um processo apresenta esta caracter´ıstica,
dizemos que tem ‘incrementos independentes’.
Note que a independˆ encia de N
m+n
−N
m
com relac¸ ˜ ao a N
0
, . . . , N
m
foi provada
sem lanc¸ar m˜ ao da distribuic¸ ˜ ao de X
n
. Portanto o Corol´ ario 2 ´ e verdadeiro para
qualquer processo {Z
n
, n ∈ N}, definido por:
Z
n
=
_
0 se n = 0
Y
1
+Y
2
+· · · +Y
n
se n ≥1
sendo Y
1
+Y
2
+· · · +Y
n
vari´ aveis aleat´ orias independentes. Se os Y
i
´s tamb´ em
s˜ ao identicamente distribu´ıdos, ent˜ ao a distribuic¸ ˜ ao do incremento Z
m+n
−Z
m
n˜ ao
7
depende de m e, neste caso, diz-se que o processo {Z
n
; n ∈ N} possui ‘incrementos
independentes e estacion´ arios’.
Exemplo 4. Considere novamente o processo de Bernoulli do Exemplo 1. Calcule
a probabilidade conjunta P(N
5
= 4, N
7
= 5, N
13
= 8), bem como E(N
5
N
8
).
Soluc¸ ˜ ao: o evento (N
5
= 4, N
7
= 5, N
13
= 8) ´ e equivalente ao evento (N
5
= 4, N
7

N
5
= 1, N
13
−N
7
= 3) e empregando o Teorema 1 e o Corol´ ario 2, escrevemos:
P(N
5
= 4, N
7
= 5, N
13
= 8) = P(N
5
= 4, N
7
−N
5
= 1, N
13
−N
7
= 3)
= P(N
5
= 4)P(N
7
−N
5
= 1)P(N
13
−N
7
= 3)
=
_
5
4
_
p
4
(1−p)
7
_
2
1
_
p
1
(1−p)
1
_
6
3
_
p
3
(1−p)
3
.
Portanto,
P(N
5
= 4, N
7
= 5, N
13
= 8) = 200p
8
(1−p)
11
= .
Para calcular E(N
5
N
8
), escrevemos
N
8
= N
5
+N
8
−N
5
e, portanto,
E(N
5
N
8
) = E[N
5
(N
5
+N
8
−N
5
)] = E[N
5
2
+N
5
(N
8
−N
5
)]
= E(N
5
2
) +E(N
5
)E(N
8
−N
5
) = 5p
2
+5pq+5p3p
= 23p
2
+5pq+15p
2
= 40p
2
+5pq
Finalizamos esta sec¸ ˜ ao com um resultado ´ util para c´ alculo de valores espera-
dos.
Teorema 2. Considere umprocesso de Bernoulli e os n´ umeros de sucessos N
m
, N
m+1
, . . ..
Ent˜ ao,
E(g(N
m
, . . . , N
m+n
)|N
0
, . . . , N
m
) = E(g(N
m
, . . . , N
m+n
)|N
m
)
Observac¸ ˜ ao 4. Note que o Teorema 2 diz que a hist´ oria passada (N
0
, . . . , N
m−1
) ´ e
irrelevante para o c´ alculo de valores esperados associados ` as tentativas futuras.
Repare na conex˜ ao disto com os coment´ arios da Observac¸ ˜ ao 2.
Exerc´ıcio 1. Calcule: (i)E(N
5
|N
3
); (ii)E(N
5
N
11
|N
2
, N
3
).
Exerc´ıcio 2 (Para entregar). Seja p =0, 1. Calcule E(N
2
N
4
). Simule 5 realizac¸ ˜ oes
para o processo N e calcule a m´ edia para N
2
N
4
; compare com o valor te´ orico.
8
1.3 Tempo de Sucesso, T
Um outro importante processo associado a um processo de Bernoulli {X
n
, n =
1, 2, . . .} ´ e o denominado “tempo de sucesso”, denotado por {T
k
, n ∈ N}, que con-
siste basicamente nos intantes de ocorrˆ encia do k-´ esimo sucesso. O conceito ´ e mais
facilmente entendido atrav´ es da ilustrac¸ ˜ ao na Figura 1.3, que associa o processo T
aos processos X e N.
Figura 1.3: Figura ainda n˜ ao dispon´ıvel...
Definic¸ ˜ ao 3. Sejam {X
n
; n ≥1} um processo de Bernoulli com probabilidade p de
sucessos e {N
n
, n ∈ N} os n´ umeros de sucesso associados. Os tempos de sucesso
{T
k
, k ∈ N} s˜ ao definidos por
T
k
(w) =
_
0 k = 0
min
n
{n : N
n
(w) ≥k} k = 1, 2, . . .
(1.1)
Observac¸ ˜ ao 5. Similarmente ao que ocorria comos n´ umeros de sucesso, as vari´ aveis
aleat´ orias T
k
s˜ ao determinadas por X
n
bem como por N
n
e vice-versa. De fato, as
seguintes afirmac¸ ˜ oes podem ser facilmente deduzidas:
i) T
k
= n ⇐⇒N
n−1
= k −1 e N
n
= k.
ii) T
k
≤ n ⇐⇒N
n
≥ k (o k-´ esimo sucesso ocorre at´ e n se, e somente se, o n´ umero
de sucessos nas primeiras n tentativas ´ e pelo menos k).
iii) T
k
= kI
{X
j
=1}
, k = 1, 2, . . ..
iv)
_
X
n
= 1, ∃k : n = T
k
X
n
= 0, c.c..
Note que T
k
−T
k−j
´ e o intervalo entre o (k − j)-´ esimo sucesso e o k-´ esimo su-
cesso. Como veremos a seguir, vari´ aveis aleat´ orias desta forma s˜ ao independentes
sempre que os intervalos aos quais elas se referem n˜ ao se intercalam.
Lema 2. T
1
, T
2
−T
1
, T
3
−T
2
, . . . s˜ ao v.a. independentes e identicamente distribui-
das (i.i.d.) com distribuic¸ ˜ ao
P(T
k
−T
k−1
= j) = p(1−p)
j−1
. (1.2)
9
Demonstrac¸ ˜ ao. Parte a) Empregando a relac¸ ˜ ao da Observac¸ ˜ ao 5 (iv), avaliamos
P(T
1
= j
1
, T
2
−T
1
= j
2
) = P(T
1
= j
1
|T
2
−T
1
= j
2
)P(T
2
−T
1
= j
2
)
= P(X
0
= 0, X
1
= 0. . . , X
j
1
−1
= 0, X
j
1
= 1|
X
j
1
+1
= 0, . . . , X
j
1
+j
2
−1
= 0, X
j
1
+j
2
= 1)P(T
2
−T
1
= j
2
)
= P(X
0
= 0, X
1
= 0. . . , X
j
1
−1
= 0, X
j
1
= 1)P(T
2
−T
1
= j
2
)
= P(T
1
= j
1
)P(T
2
−T
1
= j
2
)
sendo que na p´ en´ ultima passagem usamos o fato de que X
n
e X
m
s˜ ao independentes
para n = m. A prova pode ser concluida usando o mesmo argumento, indutiva-
mente. Por exemplo,
P(T
1
= j
1
,T
2
−T
1
= j
2
, T
3
−T
2
= j
3
)
= P(T
1
= j
1
, T
2
−T
1
= j
2
|T
3
−T
2
= j
3
)P(T
3
−T
2
= j
3
)
= P(T
1
= j
1
, T
2
−T
1
= j
2
)P(T
3
−T
2
= j
3
)
= P(T
1
= j
1
)P(T
2
−T
1
= j
2
)P(T
3
−T
2
= j
3
)
Parte b) Dada a independˆ encia demonstrada na parte (a), temos que
P(T
k
−T
k−1
= j) = P(T
k
−T
k−1
= j|T
k−1
)
= P(X
T
k−1
+1
= 0, . . . , X
T
k−1
+j−1
= 0, X
T
k−1
+j
= 1|T
k−1
)
= (1−p)
j−1
p
1.3.1 Valor Esperado e Vari ˆ ancia de T
´
E poss´ıvel calcular E(T
k+1
−T
k
) e Var(T
k+1
−T
k
) diretamente, empregando o fato
de T
k+1
−T
k
ter a distribuic¸ ˜ ao geom´ etrica dada no Lemma 2. Por exemplo,
E(T
k+1
−T
k
) =


j=1
j pq
j−1
=
1
p
.
Similarmente,
Var(T
k+1
−T
k
) =
(1−p)
p
2
.
Como T
k
= T
1
+(T
2
−T
1
) +· · · +(T
k
−T
k−1
), segue que T
k
´ e a soma de k vari´ aveis
aleat´ orias i.i.d., e podemos escrever:
E(T
k
) = E(T
1
) +· · · +E(T
k
−T
k−1
) =
k
p
,
assim como
Var(T
k
) =
k(1−p)
p
2
.
10
1.3.2 Distribuic¸ ˜ ao de T
Teorema 3. Para qualquer k ∈ {1, 2, . . . }, tem-se:
i)
P(T
k
= n) =
_
n−1
k −1
_
p
k
q
n−k
, n = k, k +1, . . . ;
ii)
P(T
k
≤n) =
n

j=k
_
n
j
_
p
j
q
n−j
, n = k, k +1, . . . .
Demonstrac¸ ˜ ao. Inicialmente, note que T
k
(w) ≥ k para qualquer w ∈ Ω, pois o k-
´ esimo sucesso n˜ ao pode ocorrer em menos do que k tentativas. Desta forma, para
n < k teremos P(T
k
= n) = 0, bem como P(T
k
≥ n) ≥ P(T
k
≥ k) = P(Ω) = 1. Na
sequˆ encia, consideraremos n ≥k.
i) Conforme foi comentado na Observac¸ ˜ ao 5,
T
k
= n ⇐⇒N
n−1
= k −1 e N
n
= k
e, portanto,
P(T
k
= n) = P(N
n−1
= k −1, N
n
= k)
= P(N
n−1
= k −1, N
n
−N
n−1
= 1)
Em seguida, empregando o Corol´ ario 2 e o Teorema 1, avaliamos:
P(T
k
= n) = P(N
n−1
= k −1, N
n
−N
n−1
= 1)
= P(N
n−1
= k −1)P(N
n
−N
n−1
= 1)
=
_
n−1
k −1
_
p
k−1
· (1−p)
n−1−k+1
· p =
_
n−1
k −1
_
p
k
(1−p)
n−k
.
ii) Conforme a Observac¸ ˜ ao 5 (ii),
T
k
≤n ⇐⇒N
n
≥k,
Assim, para n ≥k, de acordo com o Lema 1, temos:
P(T
k
≤n) = P(N
n
≥k) =
n

j=k
P(N
n
= j) =
n

j=k
_
n
j
_
p
j
q
n−j
11
Exemplo 5. Calcule i) P(T
3
= 5); ii) P(T
3
= 5|T
1
); iii) P(T
3
= 5) = ∑

j=0
P(T
3
=
5|T
1
= j)P(T
1
= j) e compare com (i).
Soluc¸ ˜ ao: i) P(T
3
= 5) =
_
4
2
_
p
3
(1−p)
2
;
ii) P(T
3
= 5|T
1
) = P(T
3
−T
1
= 5−T
1
|T
1
= j
1
)
= P(T
2
= 5− j
1
) =
_
4−T
1
1
_
p
2
(1−p)
3−T
1
;
iii) P(T
3
= 5) =


j=0
P(T
3
= 5|T
1
= j)P(T
1
= j)
=
3

j=1
_
4− j
1
_
p
2
(1−p)
3−j
_
j −1
0
_
p
1
(1−p)
j−1
=
3

j=1
_
4− j
1
_
p
3
(1−p)
2
=
_
4
2
_
p
3
(1−p)
2
Exemplo 6. Para um evento A qualquer, sabe-se que
E(I
A
) = P(A).
Este fato pode ser usado, em conjunto com a lei dos grandes n´ umeros, para inferir
probabilidades. Por exemplo, com p = 0, 3, simulando 100.000 realizac¸ ˜ oes para
T
3
, obtendo os valores de I
{T
3
=5}
, e calculando a m´ edia obtemos:
m´ edia de I
{T
3
=5}
= 0, 0793.
Confirmando o resultado,
E(I
{T
3
=5}
) = P(T
3
= 5) =
_
4
2
_
p
3
(1−p)
2
= 0, 0794.
Exemplo 7. Calcule P()
1.4 Exerc´ıcios
Exerc´ıcio 3. Considere uma poss´ıvel realizac¸ ˜ ao ω= (S, F, F, S. . .) de uma seq¨ uˆ encia
de lanc¸amentos independentes com dois poss´ıveis resultados S e F. Determine o
valor da vari´ avel aleat´ oria.
12
Exerc´ıcio 4. Seja {X
n
; n = 1, 2, . . .} um processo de Bernoulli.
Se p = P(X
n
= 1) = 0.05
a) Qual a probabilidade de X
1
= 1, X
2
= 1 e X
3
= 1 ?
b) P(N
3
= 1) ?
Exerc´ıcio 5. Seja {X
n
; n = 1, 2, . . .} um processo de Bernoulli. Calcule:
a)P(N
1
= 0, N
2
= 0, N
3
= 1, N
4
= 1)
b)P(N
1
= 0, N
3
= 2, N
3
= 1, N
4
= 2)
c)P(N
8
= 6, N
15
= 12)
Exerc´ıcio 6. No problema mostrado no exemplo 4, qual a probabilidade de um
mancal estar dentro da especificac¸ ˜ ao ? Qual a probabilidade de um rebite sair da
especificac¸ ˜ ao ? Qual ´ e o valor esperado de pec¸as fora da especificac¸ ˜ ao depois de
400 fabricadas ?
Exerc´ıcio 7. Para p = 0.8, calcule:
a)E(N
3
)
b)E(N
7
)
c)E(N
3
+4N
7
)
d)Var(N
3
)
e)Var(N
7
−N
3
)
f)E(6N
4
+N
7
|N
2
)
Exerc´ıcio 8. Considere o processo de Bernoulli com probabilidade p = 0.8 . As
cinco primeiras tiragens resultam em {SFFSS} . Determinar o valor esperado de
N
3
+2N
7
dado o hist´ orico.
Exerc´ıcio 9. Mostrar que E(N
n+m
|N
n
) = N
n
+mp .
Exerc´ıcio 10. Sejam N
n
o n´ umero de ve´ıculos que passam por um certo ponto no
intervalo (0, n], e T
k
marca o tempo (em segundo) do k-´ esimo ve´ıculo ter passado
por tal ponto. Suponha a taxa de passagem de 4 ve´ıculos/minuto. Calcule:
a) p = P(X
n
= 1)
b) P(T
4
−T
3
= 12)
c)E(T
4
−T
3
) , E(T
13
−T
3
)
d) Var(T
2
+5T
3
)
Exerc´ıcio 11. Prove que P(T
8
= 17|T
0
, . . . , T
7
) = pq
16−T
7
, {T
7
≤16} .
Exerc´ıcio 12. Mostre que
E(T
m+n
|T
n
) = T
n
+
m
p
.
13
Exerc´ıcio 13. Calcule:
a)P(T
1
= k, T
2
= m, T
3
= n), k < m < n .
b)P(T
3
= n|T
1
= k, T
2
= m)
c)E(T
3
|T
1
= k, T
2
= m)
d)E[g(T
3
)|T
1
, T
2
] para g(b) =α
b
, α ∈ [0, 1] .
Exerc´ıcio 14. Se uma vari´ avela aleat´ oria T tem distribuic¸ ˜ ao geom´ etrica, ent˜ ao
P(T > n+m|T > n) = q
m
= P(T > m)
para todo n e m. Mostre que a rec´ıproca ´ e tamb´ em verdadeira: se uma
vari´ avela aleat´ oria T ´ e tal que
P(T > n+m|T > n) = P(T > m)
para todo m, n ∈ N ent˜ ao T tem distribuic¸ ˜ ao geom´ etrica.
Exerc´ıcio 15. A probabilidade de um motorista parar para um caroneiro ´ e p =
0.04; ´ e claro que motoristas diferentes fazem sua decis˜ ao de parar ou n˜ ao inde-
pendente de cada um. Dado que nosso caroneiro contou que 30 carros passaram
sem lhe dar carona, qual a probabilidade de ser pego pelo 37
o
¯
motorista ou antes?
Exerc´ıcio 16. Seja a chegada de carros descrita no exerc´ıcio anterior. Imagine
que dois carros passam a cada minuto (determin´ısticamente). Seja S o tempo em
segundos em que ele finalmente consegue a carona.
a) Ache a distribuic¸ ˜ ao de S; calcule E(S), Var(S).
b) Dado que depois de 5 minutos, durante os quais 10 carros passaram, o
caroneiro ainda continua no seu lugar, calcule o valor esperado de T.
Exerc´ıcio 17. Um duelo entre dois homens ´ e feito em rounds, da seguinte forma:
em cada round, ambos atiram simultaneamente e a probabilidade de o 1
o
¯
matar
o 2
o
¯
´ e p
1
, e do 2
o
¯
matar o 1
o
¯
´ e p
2
(n˜ ao necessariamente p
1
+ p
2
= 1). Ache a
probabilidade de que:
a) o duelo termine no 13
o
¯
round.
b) o 1
o
¯
termine vivo.
c) o duelo termine no 13
o
¯
round com o 1
o
¯
vivo.
DICA: crie um processo de Bernoulli identifiando
sucesso ≡“um ou ambos homens morrem no n-´ esimo round”.
14
Cap´ıtulo 2
Processo de Poisson
No cap´ıtulo anterior estudamos processos estoc´ asticos discretos bastante simples.
A partir de agora estudaremos o processo de Poisson, um processo estoc´ astico si-
milar ao processo de n´ umero de sucessos de um processo de Poisson. Este processo
´ e simples do ponto de vista conceitual e intuitivo, mas ´ e cont´ınuo no tempo, o que
traz uma certa compexidade anal´ıtica.
Diferentemente do processo de Bernoulli e dos processo de n´ umero de sucessos
e de tempo de sucessos associados, cujo apelo era mais did´ atico do que aplicativo,
o processo de Poisson encontra diversas aplicac¸ ˜ oes, como em telefonia, no estudo
de chegada de clientes em uma loja, ou de sa´ıdas de pec¸as de um estoque.
2.1 Hip´ oteses do Processo de Poisson
H´ a um certo processo estoc´ astico, denominado de processo de contagem de che-
gadas, que ´ e util para descrever o processo de Poisson. No processo de contagem
de chegada {N
t
, t ≥ 0}, em cada instante de tempo t ≥ 0, a vari´ avel aleat´ oria N
t
registra o total do n´ umero de chegadas.
Em termos formais, N ={N
t
; t ≥0} ´ e tal que para cada w ∈ Ω o mapeamento
t →N
t
(w) ´ e n˜ ao decrescente, aumenta somente por saltos, ´ e cont´ınuo a direita e
N
0
(w) = 0, onde N
t
(w) ´ e o n´ umero de chegadas no intervalo [0, t] para a realizac¸ ˜ ao
w ∈ Ω. Note que N ´ e um processo estoc´ astico a parˆ ametro (de tempo) cont´ınuo e
com espac¸o de estado discreto N = {0, 1, 2, . . .}. Veja um exemplo de realizac¸ ˜ ao
do processo na Figura 2.1.
Quando o processo de contagem satisfaz certas hip´ oteses (simplificadoras),
ent˜ ao diz-se que ele ´ e um processo de Poisson. Desta forma, o processo de Poisson
consiste em um caso particular do processo de contagem de chegadas, para o qual
certas hip´ oteses valem.
15
Figura 2.1: Figura ainda n˜ ao dispon´ıvel... Realizac¸ ˜ ao do processo de contagem
{N
n
, n ∈ N}.
Se por umlado ´ e verdade que ´ e relativamente dif´ıcil que as hip´ oteses de Poisson
sejam perfeitamente verificadas na pr´ atica, por outro lado em um grande n´ umero de
aplicac¸ ˜ oes elas representam boas aproximac¸ ˜ oes, e por isto o processo de Poisson ´ e
considerado um bom modelo para diversos processos de contagem. Estudaremos
as hip´ oteses de Poisson a seguir.
Notac¸ ˜ ao 1. Chama-se N
t+s
−N
t
o n´ umero de chegadas no intervalo (t, t+s].
Recorde, da Observac¸ ˜ ao 3, que o n´ umero de sucessos do processo de Ber-
noulli tem “incrementos independentes”, pois os incrementos em intervalos dis-
juntos eram independentes.
A priemira hip´ otese considerada ´ e uma transposicao direta: o n´ umero de che-
gadas em um certo intervalo ´ e independente do n´ umero de chegadas em um outro
intervalo. N´ os formalizamos a noc¸ ˜ ao de incrementos independentes, para referen-
cia posterior, da seguinte forma.
Definic¸ ˜ ao 4 (Incrementos Independentes). Considere um processo estoc´ astico
{Z
k
, k ∈T}, sendo T o conjunto de parˆ ametros. Se as vari´ aveis aleat´ orias Z
k
1
+k
2

Z
k
1
e Z
k
3
+k
4
−Z
k
3
forem independentes para quaisquer k
1
, k
2
, k
3
, k
4
tais que os in-
tervalos (k
1
, k
1
+k
2
] (k
3
, k
3
+k
4
] forem disjuntos, ent˜ ao dizemos que o processo
tem incrementos independentes.
A segunda hip´ otese consiste no fato que os incrementos dependem do “compri-
mento” do intervalo, mas n˜ ao de sua “localizac¸ ˜ ao”; ou seja, o n´ umero de chegadas
N
t+s
−N
t
, t, s ≥0, depende de s mas n˜ ao de t. Dada esta independˆ encia do tempo,
dizemos que o processo ´ e estacion´ ario. Novamente, h´ a semelhanc¸a com o n´ umero
de sucessos em um processo de Poisson, pois quando tratamos dos incrementos
pod´ıamos fazer um “shift no tempo”. Formalizamos o conceito como segue.
Definic¸ ˜ ao 5 (Incrementos Estacion´ arios). Considere um processo estoc´ astico
{Z
k
, k ∈ T}, sendo T o conjunto de parˆ ametros. Se a distribuic¸ ˜ ao da vari´ avel
aleat´ oria Z
t+s
−Z
t
for independente de t, ent˜ ao dizemos que o processo tem incre-
mentos estacion´ arios.
A terceira e ´ ultima hip´ otese consiste no fato que n˜ ao ocorrem chegadas si-
multˆ aneas. Se considerarmos, por exemplo, a chegada de pessoas a um est´ adio,
teremos que considerar que todas as pessoas chegam sozinhas.
Formalmente, temos:
16
Definic¸ ˜ ao 6 (Chegadas n˜ ao Simultˆ aneas). Considere um processo de contagem
de chegadas {N
t
, t ≥ 0}. Dizemos que o processo tem chegadas n˜ ao simultˆ aneas
se os saltos em N
t
(w) forem de amplitude unit´ aria, para quase todo w.
Definic¸ ˜ ao 7. Um processo de chegada N ={N
t
, t ≥0} ´ e chamado um processo de
Poisson se:
i) tiver incrementos independentes. Ou seja, para qualquer s, t ≥ 0, N
t+s
−N
t
´ e independente de {N
u
, u ≤t};
ii) tiver incrementos estacion´ arios. Ou seja, para qualquer s, t ≥0, a distribuic¸ ˜ ao
de N
s+t
−N
t
´ e independente de t (estacionaridade);
iii) apresentar chegadas n˜ ao simult˜ aneas.
Observac¸ ˜ ao 6. Note que a hip´ otese (i) da Definic¸ ˜ ao 6 n˜ ao parece (ao menos em
princ´ıpio) idˆ entica ` a hip´ otese de incrementos independentes.
Contudo, elas s˜ ao equivalentes. A seguir mostramos que a hip´ otese (i) da
definic¸ ˜ ao leva ` a hip´ otese de independˆ encia incremental; a demonstrac¸ ˜ ao reversa ´ e
deixada ao leitor.
Note que o conhecimento de N
t
1
, N
t
2
, . . . , N
t
n
´ e equivalente ao conhecimento de
N
t
1
, N
t
2
−N
t
1
, . . . , N
t
n
−N
t
n−1
, ou seja,
N
t
1
= N
t
1
N
t
2
= N
t
1
+(N
t
2
−N
t
1
)
.
.
.
N
t
n
= N
t
n−1
+(N
t
n
−N
t
n−1
)
portanto
P(N
s+t
−N
t
|N
t
1
, N
t
2
, . . . , N
t
n
) = P(N
s+t
−N
t
|N
t
1
, N
t
2
−N
t
1
, . . . , N
t
n
−N
t
n−1
)
Da hip´ otese (i) da Definic¸ ˜ ao 6, temos que N
s+t
−N
t
´ e independente do hist´ orico
passado N
t
1
, N
t
2
, . . . , N
t
n
, quando t
1
< t
2
< . . . < t
n
≤ t. Ent˜ ao, podemos escrever
que
P(N
s+t
−N
t
|N
t
1
, N
t
2
, . . . , N
t
n
) = P(N
s+t
−N
t
)
e, substituindo na equac¸ ˜ ao anterior, obtemos
P(N
s+t
−N
t
|N
t
1
, N
t
2
−N
t
1
, . . . , N
t
n
−N
t
n−1
) = P(N
s+t
−N
t
).
Ou seja, N
t+s
−N
t
´ e independente de N
t
1
, N
t
2
−N
t
1
, . . . , N
t
n
−N
t
n−1
, e da´ı obtemos
P(N
t
2
−N
t
1
|N
t
1
) = P(N
t
2
−N
t
1
) ⇒(N
t
2
−N
t
1
) e N
t
1
s˜ ao independentes;
P(N
t
3
−N
t
2
|N
t
1
, N
t
2
−N
t
1
) =P(N
t
3
−N
t
2
) ⇒(N
t
3
−N
t
2
) ´ e independente de N
t
1
, N
t
2

N
t
1
.
Logo N
t
1
, N
t
2
−N
t
1
e N
t
3
−N
t
2
s˜ ao independentes. O resultado segue por induc¸ ˜ ao.
17
2.1.1 Distribuic¸ ˜ ao de N
t
´
E poss´ıvel partir das hip´ oteses que definem o processo de Poisson e encontrar as
distribuic¸ ˜ oes associadas de N. Contudo, ´ e mais simples (e igualmente did´ atico)
partirmos propondo a distribuic¸ ˜ ao de um incremento N
t+s
−N
t
e em seguida verifi-
car que de fato esta distribuic¸ ˜ ao corresonde ` as hip´ oteses do processo, como segue.
Teorema 4. Se {N
t
, t ≥0} ´ e um processo de Poisson, ent˜ ao, para qualquer t, s ≥0
e k ≥0,
P(N
t+s
−N
t
= k|N
u
, u ≤t) = P(N
t+s
−N
t
= k) =
e
−λt
(λt)
k
k!
. (2.1)
Demonstrac¸ ˜ ao. H´ a dois fatos a serem verificados. Primeiro, se (2.1) ´ e, de fato,
uma distribuic¸ ˜ ao. Deixamos isto ao encargo do leitor.
Segundo, devemos verificar se os ´ıtens (i) a (iii) da Definic¸ ˜ ao 7 s˜ ao satisfeitos,
assumindo que a distribuic¸ ˜ ao ´ e como em (2.1). Os ´ıtens (i) e (ii) s˜ ao triviais, pois
de (2.1) vem que P(N
t+s
−N
t
= k|N
u
, u ≤ t) ´ e igual a
e
−λt
(λt)
k
k!
, valor este que s´ o
depende do “intervalo”s; n˜ ao depende de t e nem dos valores passados do processo.
Com respeito ao item (iii), temos:
vide notas de aula
´
E interessante visualizar as curvas da distribuic¸ ˜ ao do Teorema 4, trac¸adas na
Figura 2.2. Note que a distribuic¸ ˜ ao ´ e bastante assim´ etrica para P(N
s+t
−N
s
= k)
quando k ´ e pequeno, e que vai se tornando mais sim´ etrica na medida em que k
aumenta; para valores elevados de k, a distribuic¸ ˜ ao aproxima-se da normal com
m´ edia λt.
Exemplo 8. Seja N ={N
t
, t ≥0} um processo de Poisson com taxa λ = 8. Quere-
mos calcular
P(N
2.5
= 17, N
3.7
= 22, N
4.3
= 36)
O conhecimento de N
2.5
, N
3.7
e N
4.3
´ e equivalente a N
2.5
, N
3.7
−N
2.5
,
N
4.3
−N
3.7
, ent˜ ao
P(N
2.5
= 17, N
3.7
= 22, N
4.3
= 36) =
P(N
2.5
= 17, N
3.7
−N
2.5
= 5, N
4.3
−N
3.7
= 14)
= P(N
2.5
= 17)P(N
3.7
−N
2.5
= 5)P(N
4.3
−N
3.7
= 14)
= P(N
2.5
= 17)P(N
1.2
= 5)P(N
0.6
= 14)
18
0 200 400 600 800 1000 1200 1400 1600 1800 2000
0
2
4
6
8
10
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
Poisson ~ e
(−lt)
(lt)
k
/(k!)
tempo, t
unidades, k
Figura 2.2: Distribuic¸ ˜ ao dos incrementos N
s+t
−N
s
de um processo de Poisson com
taxa λ = 1/100
Assim
P(N
2.5
= 17, N
3.7
= 22, N
4.3
= 36) =
e
−8×2.5
(8×2.5)
17
17!
·
e
−8×1.2
(8×1.2)
5
5!
·
e
−8×0.6
(8×0.6)
14
14!
=
e
−20
(20)
17
17!
·
e
−9.6
(9.6)
5
5!
·
e
−4.8
(4.8)
14
14!
2.1.2 Valor Esperado de N
t
e o Significado de λ
Seja N
t
, t ≤0 um processo de Poisson
P(N
t
= n) =
e
−λt
(λt)
n
n!
, n = 0, 1, 2, . . .
Vamos calcular E(N
t
)
E(N
t
) =


n=0
nP(N
t
= n)
=


n=0
n
e
−λt
(λt)
n
n!
19
=


n=1
n
e
−λt
(λt)
n−1
(n−1)!
(λt)
=λte
−λt


n=1
(λt)
n−1
(n−1)!
Fazendo a mudanc¸a de vari´ avel j = n−1, onde n = 1 ⇒ j = 0 e n →∞⇒ j →
∞.
E(N
t
) = (λt)e
−λt


j=0
(λt)
j
j!
. ¸¸ .
=λt
e
λt
Note que o resultado acima sugere que o significado de λ ´ e o do valor esperado
de chegadas em um certo intervalo de durac¸ ˜ ao t, dividido por t,
λ =
E(N
t
)
t
.
Ou seja, λ ´ e a ‘taxa m´ edia’ de chegadas. Esta id´ eia ´ e reforc¸ada pelo resultado que
segue, que estabelece que λ tem o significado da raz˜ ao entre a probabilidade de
uma chegada em um pequeno intervalo. A prova vem de imediato da distribuic¸˜ ao
dos incrementos e ´ e omitida.
Lema 3.
lim
t→0
P(N
t
= 1)
t

Exemplo 9. Suponha que em um terminal telefˆ onico chegam 20 chamadas por dia.
Qaul a probabilidade de 10 ou mais chamadas ocorrerem entre 10h e 18h de um
dia? Qual a probabilidade de mais de uma chamada nas primeira 8 horas do dia?
Soluc¸ ˜ ao:
λ = 20 chamadas por dia = 20/24 chamadas por hora .
P(N
t
= n) =
e
−λt
(λt)
n
n!
, n = 0, 1, 2, . . .
(i)Sabemos que P(N
t+s
−N
t
= n) = P(N
s
) =
e
−λs
(λs)
n
n!
. Assim, fazendo t = 10,
s = 8 e n = 10 temos
P(N
8
≥10) =


n=10
P(N
8
= n) =


n=10
e

20
24
8
(
20
24
8)
n
n!
=


n=10
e

20
3
(
20
3
)
n
n!
20
Devemos usar que
P(N
8
≥10) = 1−P(N
8
≤10) = 1−
9

n=0
e

20
3
(
20
3
)
n
n!
(ii)P(N
t
≥2), t = 8h
P(N
8
≥2) = 1−P(N
8
≤1) = 1−P(N
8
= 0) −P(N
8
= 1)
= 1−
e

20
24
8
(
20
24
8)
0
0!

e

20
24
8
(
20
24
8)
1
1!
= 1−e

20
3

20
3
e

20
3
= 1−e

20
3
_
1+
20
3
_
——
Exemplo 10. Qual o valor esperado do n´ umero de chamadas do Exemplo 9? Con-
sidere os dois intervalos 0 ≤t ≤8h e 10 ≤t ≤18h?
Soluc¸ ˜ ao:
(i) E(N
t
) =λt, 0 ≤t ≤8
E(N
8
) =
20
24
· 8 =
20
3
chamadas .
(ii) E(N
t+s
−N
t
) para 10 ≤t ≤18
P(N
t+s
−N
t
) = P(N
s
)
E(N
t+s
−N
t
) = E(N
t+s
) −E(N
t
) =λ(t +s) −λt =λs
Assim
E(N
18
−N
10
) =
20
24
· 8 =
20
3
chamadas .
Teorema 5. N ={N
t
, t ≤0} ´ e um processo de Poisson se, e somente se,
(a) Para quase todo w, cada salto N
t
(w) ´ e de magnitude unit´ aria;
(b) E{N
t+s
−N
t
|N
u
, u ≤t} =λs
A prova deste teorema ser´ a omitida.
Observac¸ ˜ ao 7. A definic¸ ˜ ao do processo de Poisson ´ e puramnete qualitativa, o sur-
preendente ´ e que estes axiomas qualitativos especificamcompletamente a distribuic¸ ˜ ao
de N
t
e as leis probabil´ısticas do processo como um todo.
O teorema anterior d´ a uma caracterizac¸ ˜ ao qualitativa mais simples do pro-
cesso de Poisson. Este teorema ´ e de f´ acil uso quando existe uma forte evidˆ encia
para sugerir a independˆ encia de N
t+s
−N
t
do hist´ orico passado N
u
, u ≤t.
21
O pr´ oximo teorema ´ e de f´ acil uso onde os axiomas de independˆ encia n˜ ao s˜ ao
evidentes, mas existem dados para se obter a distribuic¸ ˜ ao do n´ umero de chegada
em v´ arios intervalos de tempo.
Teorema 6. N = {N
t
, t ≥ 0} ´ e um processo de Poisson com taxa λ se, e somente
se,
P(N
B
= k) =
e
−λb
(λb)
k
k!
para qualquer intervalo B ⊂[0, ∞) que ´ e a uni˜ ao de um n´ umero finito de intervalos
disjuntos tal que a soma dos comprimentos ´ e b.
Demonstrac¸ ˜ ao. (i) Provaremos o teorema s´ o em um sentido. Considere o n´ umero
de chegadas em dois intervalos de tempo disjuntos
X
1
= N
t
1
+s
−N
t
1
; X
2
= N
t
2
+s
2
−N
t
2
em um processo de Poisson com taxa λ. Ent˜ ao
P(X
1
+X
2
= n) =


j=0
P(X
1
= j)P(X
1
+X
2
= n|X
1
= j)
=


j=0
P(X
1
= j)P(X
2
= n− j)
usamos na ´ ultima passagem o fato de X
2
ser independente de X
1
. Logo
P(X
1
+X
2
= n) =


j=0
e
−λs
1
(λs
1
)
j
j!
e
−λs
2
(λs
2
)
n−j
(n− j)!
= e
−λ(s
1
+s
2
)


j=0
(λs
1
)
j
(λs
2
)
n−j
j!(n− j)!
=
e
−λ(s
1
+s
2
)
n!


j=0
n!
j!(n− j)!
(λs
1
)
j
(λs
2
)
n−j
Mas


j=0
n!
j!(n− j)!
(λs
1
)
j
(λs
2
)
n−j
= (λs
1
+λs
2
)
n
portanto
P(X
1
+X
2
= n) =
e
−λ(s
1
+s
2
)
(λs
1
+λs
2
)
n
n!
(ii) A rec´ıproca n˜ ao ser´ a provada.
22
Proposic¸ ˜ ao 1. SejamA
1
, A
2
, . . . , A
n
intervalos disjuntos comuni˜ ao B, sejama
1
, a
2
, . . . , a
n
os respectivos comprimentos de A
1
, A
2
, . . . , A
n
e b = a
1
+a
2
+ +. . . +a
n
. Ent˜ ao,
para k
1
+k
2
+. . . +k
n
= k ∈ N, temos
P(N
A
1
= k
1
, N
A
2
= k
2
, . . . , N
A
n
= k
n
|N
B
= k)
=
k!
k
1
!k
2
! . . . k
n
!
_
a
1
b
_
k
1
. . .
_
a
n
b
_
k
n
.
(2.2)
Demonstrac¸ ˜ ao. Se N
A
1
= k
1
, N
A
2
= k
2
, . . . , N
A
n
= k
n
e N
B
= k temos
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
|N
B
= k) =
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
)
P(N
B
= k)
Se A
1
, A
2
, . . . , A
n
s˜ ao disjuntos, ent˜ ao N
A
1
, . . . N
A
n
s˜ ao independentes, logo
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
) = P(N
A
1
= k
1
). . . P(N
A
n
= k
n
)
Sendo P(N
A
i
= k
i
) =
e
−λa
i
(λa
i
)
k
i
k
i
!
, P(N
B
= k) =
e
−λb
(λb)
k
k
temos
P(N
A
1
= k
1
, . . . , N
A
n
= k
n
|N
B
= k) =
k!
k
1
!k
2
! . . . k
n
!
_
a
1
b
_
k
1
. . .
_
a
n
b
_
k
n
2.1.3 Tempo de Chegada
Seja N = {N
t
, t ≥ 0} um processo de Poisson com taxa λ, para quase todo w. A
func¸ ˜ ao t →N
t
(w) ´ e n˜ ao decrescente, cont´ınua ` a direita e aumenta somente por
saltos unit´ arios. Esta func¸ ˜ ao ´ e completamente determinada pelos instantes de salto
T
1
(w), T
2
(w), . . . , T
n
(w), . . .. Denotamos T
1
, T
2
, . . . , T
n
os sucessivos instantes (ou
tempo) de chegada.
Seja X
n
=T
n
−T
n−1
, (T
0
=0, por conveniˆ encia), X
n
´ e o intervalo de tempo entre
as chegadas n −1 e n. Para determinar a distribuic¸ ˜ ao de X
n
, vamos usar o fato de
que {X
n
> t} significa o mesmo que ter ocorrido zero chegadas no intervalo [0, t],
ou seja
P(X
n
>t) = P(“zero chegadas entre [0, t]”) = e
λt
Devemos observar ainda algumas propriedades da vari´ avel aleat´ oria X
n
:
P(X
n
>t|X
n−1
= s) = P(“zero chegadas entre (s, t +s]” | X
n−1
= s)
= P(“zero chegadas entre (s, t +s]”)
23
P(X
n
>t|X
n−1
= s) = P(X
n
>t) =⇒ independˆ encia.
Por outro lado P(X
n
>t) = e
λt
, logo
P(X
n
>t|X
n−1
= s) = e
λt
=⇒ estacionariedade.
Conclus˜ ao:
Os tempos entre chegadas X
n
s˜ ao vari´ aveis aleat´ orias independentes e identica-
mente distribu´ıdas com distribuic¸ ˜ ao exponencial λ−e
λt
.
Lembrando que se uma vari´ avel aleat´ oria tem distribuic¸ ˜ ao exponencial, ent˜ ao
P(X >t +s|X >t) = P(X > s)
para quaisquer t, s ≥0.
Alternativamente se X tem essa propriedade, ent˜ ao X tem distribuic¸ ˜ ao expo-
nencial, pois
P(X >t +s|X >t) =
P(X >t +s)
P(X >t)
= P(X > s)
e da´ı
P(X >t +s) = P(X >t)P(X > s),
o que implica que X tem distribuic¸ ˜ ao exponencial.
Teorema 7. Sejam T
1
, T
2
, . . . tempos sucessivos de chegadas de um processo de
chegada N = {N
t
, t ≥ 0}. Ent˜ ao N ´ e um processo de Poisson com taxa λ se, e so-
mente se, os tempos de chegadas T
1
, T
2
−T
1
, T
3
−T
1
, . . . s˜ ao i.i.d, com distribuic¸ ˜ ao
exponencial de parˆ ametro λ.
Demonstrac¸ ˜ ao. Notemos que uma parte do teorema j´ a foi provada, e deixamos a
rec´ıproca como exerc´ıcio.
Valor esperado e variˆ ancia de T
n
−T
n−1
Sendo T
n
−T
n−1
uma vari´ avel aleat´ oria com distribuic¸ ˜ ao exponencial de parˆ ametro
λ, temos
E(T
n
−T
n−1
) =
1
λ
e Var(T
n
−T
n−1
) =
1
λ
2
sendo T
n
= T
1
+(T
2
−T
1
) +(T
3
−T
2
) +. . . +(T
n
−T
n−1
) temos
E(T
n
) =
n
λ
e Var(T
n
) =
n
λ
2
24
Exemplo 11. Um item tem um tempo de vida aleat´ orio cuja distribuic¸ ˜ ao ´ e expo-
nencial com parˆ ametro λ. Quando este falha, ´ e imediatamente substitu´ıdo por
um item idˆ entico e assim sucessivamente. Isto significa que os tempos de vidas
X
1
, X
2
, . . . dos sucessivos itens em uso sao i.i.d. com distribuc¸ ˜ ao exponencial dada
por
P(X
n
≤t) = 1−e
−λt
; t ≥0.
Se T
1
, T
2
, . . . s˜ ao os tempos das falhas sucessivas, temos que T
1
= X
1
, T
2
=
X
1
+X
2
, . . .. Ent˜ ao as condic¸ ˜ oes do teorema 44 est˜ ao satisfeitas pela seq¨ uˆ encia
T
1
, T
2
, . . . Assim se N
t
´ e o n´ umero de falhas em [0, t], conclu´ımos que o processo de
falhas N ={N
t
, t ≥0} ´ e um processo de Poisson com taxa λ.
Exemplo 12. Supondo que no exemplo ?? λ = 2.10
−4
temos que o tempo de vida
esperado de um item ´ e
E(X
n
) =
1
λ
= 5000(horas)
A variˆ ancia ´ e
Var(X
n
) =
1
λ
2
= 25.10
6
(horas)
2
Supondo que numa m´ aquina funcionem trˆ es desses itens, onde o segundo entra
em funcionamento imediatamente ap´ os o primeiro falhar e o terceiro logo ap´ os o
segundo falhar, ent˜ ao o tempo de vida esperado da m´ aquina ´ e
E(T
3
) = E(X
1
+X
2
+X
3
) =
3
λ
= 15000(horas)
Var(T
3
) =Var(X
1
+X
2
+X
3
) =
3
λ
2
= 75· 10
6
(horas)
2
.
Exemplo 13. Supondo que os itens do exemplo anterior s˜ ao recolocados por outro
idˆ entico t˜ ao logo eles falhem, e supondo que o custo de reposic¸ ˜ ao ´ e β $ e que a
taxa de desconto ´ e α > 0, ent˜ ao $1 gasto no instante t tem um valor presente de
e
−αt
( α ´ e a taxa de juros). Logo, para uma realizac¸ ˜ ao w ∈ Ω, o tempo da n-´ esima
falha ´ e T
n
(w), e o valor presente do custo de reposic¸ ˜ ao ´ e βe
(−αT
n
(w))
. Assumindo
esse custo para todo n, temos que o valor presente do custo de todas reposic¸ ˜ oes
futuras ´ e
C(w) =


n=1
βe
(−αT
n
(w))
, w ∈ Ω
Estamos interessados no valor espreado do custo C(w), ou seja
E(C(w)) =


n=1
βE(e
(−αT
n
(w))
)
25
Para n fixo, podemos escrever T
n
= T
1
+ (T
2
−T
1
) +. . . + (T
n
−T
n−1
), onde
T
1
, T
2
−T
1
, . . . , T
n
−T
n−1
s˜ ao vari´ aveis aleat´ orias i.i.d., logo
E(e
−αT
n
) = E(e
−αT
1
e
−α(T
2
−T
1
)
. . . e
−α(T
n
−T
n−1
)
)
= E(e
−αT
1
)E(e
−α(T
2
−T
1
)
). . . E(e
−α(T
n
−T
n−1
)
)
= [E(e
−αT
1
)]
n
Desde que a distribuic¸ ˜ ao de T
1
´ e exponencial com parˆ ametro λ, temos
E(e
−αT
1
) =


0
e
−λt
λe
−λt
dt =
λ
α+λ
temos
E(C) =


n=1
β
_
λ
α+λ
_
n

λ
α+λ
_
1−
λ
α+λ
_
−1

λ
α
2.2 Tempo de Recorrˆ encia (Forward)
Observa-se uma loja no instante t e suponha que o ´ ultimo cliente tenha chegado no
instante t −h. Vamos mostrar que a fuc¸ ˜ ao distrituic¸ ˜ ao do intervalo de tempo que
devemos esperar para a chegada do pr´ oximo cliente n˜ ao depende de h e coincide
com a distribuic¸ ˜ ao de X
n
=T
n
−T
n−1
. O processo n˜ ao se lembra de que se passaram
h unidades de tempo entre as chegadas do ´ ultimo cliente e o instante presente.
Teorema 8. Se se observa um processo de Poisson no instante de tempo t onde a
´ ultima chegada N
t
ocorreu no instante T
N
T
= t −h e a pr´ oxima chegada N
T
+1
ocorrer´ a em T
N
T
+1
. Denotando o tempo de espera at´ e a chegada N
T
+1 por
W
t
= T
N
t
+1
−t,
tem-se que
P(W
t
≤z|N
s
, s ≤t) = 1−e
λz
para qualquer z ≥0, independentemente de t e de h.
Demonstrac¸ ˜ ao.
[W
t
≤z] = [T
N
T
+1
−t ≤z] = [T
N
T
+1
−t ≥z]
c
= [N
t+z
−N
t
= 0]
c
Portanto
P(W
t
≤z|N
s
, s ≤t) = P([N
t+z
−N
t
= 0]
c
|N
s
, s ≤t)
= 1−P(N
t+z
−N
t
= 0|N
s
, s ≤t)
= 1−P(N
t+z
−N
t
= 0)
= 1−e
λz
26
2.3 Superposic¸ ˜ ao de Processos de Poisson
Seja L = {L
t
, t ≥ 0} e M = {M
t
, t ≥ 0} dois processos de Poisson independentes
com taxas λ e µ, respectivamente. Para cada w ∈ Ω e t ≥0, seja N
t
(w) dado por
N
t
(w) = L
t
(w) +M
t
(w)
O processo N ={N
t
, t ≥0} ´ e chamado de superposic¸ ˜ ao dos processos L e M.
Teorema 9. N ={N
t
, t ≥0} ´ e um processo de Poisson com taxa υ =λ+µ.
Demonstrac¸ ˜ ao. Pelo Teorema 6, basta mostrar que para qualquer intervalo de
tempo B, que ´ e a uni˜ ao de um n´ umero finito de intervalos disjuntos de compri-
mento total b, o n´ umero de chegadas durante B tem distribuic¸ ˜ ao de Poisson com
parˆ ametro υb.
P(N
B
= n) =
n

k=0
P(L
B
= k, M
B
= n−k)
=
n

k=0
e
−λb
(λb)
k
k!
e
−µb
(µb)
n−k
(n−k)!
=
e
−(λ+µ)b
(λ+µ)
n
n!
b
n
n

k=0
n!
k!(n−k)!
λ
k
µ
n−k
(λ+µ)
n
=
e
−(λ+µ)b
(λ+µ)
n
n!
b
n
n

k=0
n!
k!(n−k)!
_
λ
λ+µ
_
k
_
µ
λ+µ
_
n−k
logo
P(N
B
= n) =
e
−(λ+µ)b
[(λ+µ)b]
n
n!
n

k=0
n!
k!(n−k)!
p
k
· q
n−k
onde p =
λ
λ+µ
e q =
µ
λ+µ
, ou seja p+q = 1. Sendo
n

k=0
n!
k!(n−k)!
p
k
· q
n−k
= (p+q)
n
= 1
temos
P(N
B
= n) =
e
−(λ+µ)b
[(λ+µ)b]
n
n!
Chamando λ+µ =ν temos
P(N
B
= n) =
e
−νb
(νb)
n
n!
27
2.4 Decomposic¸ ˜ ao de um Processo de Poisson
Sejam N ={N
t
, t ≥0} um processo de Poisson com taxa λ e {K
n
, n = 1, 2, . . .} um
processo de Bernoulli independente de N com probabilidade p de sucesso. Seja S
n
o n´ umero de sucessos nas primeiras n-tentativas. Suponha que a n-´ esima tentativa
´ e realizada no instante da n-´ esima chegada T
n
.
Para uma realizac¸ ˜ ao w∈Ω, o n´ umero de tentativas realizadas em [0, t] ´ e N
t
(w),
e o n´ umero de sucessos obtidos em [0, t] ´ e denotado por
M
t
(w) = S
N
t
(w)
e o n´ umero de falhas ´ e
L
t
(w) = N
t
(w) −M
t
(w).
Teorema 10. Os processos M = {M
t
, t ≥ 0} s˜ ao processos de Poisson com taxas
λp e λq (q = 1−p), respectivamete. Al´ em disso, L e M s˜ ao independentes.
Demonstrac¸ ˜ ao. Mostraremos que
P(M
t+s
−M
t
= m, L
t+s
−L
t
= k|M
u
, L
u
, u ≤t) =
e
−λps
(λps)
m
m!
e
−λqs
(λqs)
k
k!
com k, m = 0, 1, 2, . . . e qualquer s, t ≥ 0. Notando a igualdade entre os eventos
seguintes
A ={M
t+s
−M
t
= m, L
t+s
−L
t
= k} ={N
t+s
−N
t
= m+k, M
t+s
−M
t
= m},
escrevemos
A ={N
t+s
−N
t
= m+k, S
N
t+s
−S
N
t
= m}
Al´ em disso o conhecimento do hist´ orico {M
u
, L
u
, u ≤t} ´ e equivalente ao con-
hecimento de
K

={N
u
, u ≤t, X
1
, X
2
, . . . , X
N
t
}
Como N ´ e um processo de Poisson, e como os processos N e S s˜ ao indepen-
dentes, a vari´ avel aleat´ oria N
t+s
−N
t
´ e independente de K

. Al´ em disso o n´ umero
de sucessos nas tentativas N
t+1
, N
t+2
, . . . , N
t+s
´ e independente da hist´ oria passada
X
1
, X
2
, . . . , X
N
t
, e como S e N s˜ ao independentes, S
N
t+1
−S
N
t
´ e independente de K

.
Ent˜ ao temos
P(A) =


n=0
P(N
t
= n, N
t+s
−N
t
= m+k, S
N
t+s
−S
N
t
= m)
=


n=0
P(N
t
= n, N
t+s
= m+k +n, S
m+k+n
−S
n
= m)
28
=


n=0
P(N
t
= n, N
t+s
= m+k +n)P(S
m+k+n
−S
n
= m)
=


n=0
P(N
t
= n, N
t+s
−N
t
= m+k)P(S
m+k+n
−S
n
= m)
= P(N
t+s
−N
t
= m+k)P(S
m+k
= m)
=
e
−λs
(λs)
m+k
(m+k)!
(m+k)!
m!k!
p
m
q
k
=
e
−λ(p+q)s
(λsp)
m
(λsq)
k
m!k!
=
e
−λps
(λps)
m
m!
e
−λqs
(λqs)
k
k!
2.5 Exerc´ıcios
Exerc´ıcio 18. Seja N um processo de Poisson com taxa λ = 2, calcule
a) E(N
t
) e Var(N
t
)
b)E(N
t+s
|N
t
)
Exerc´ıcio 19. Uma loja promete dar um prˆ emio a todo 13
o
¯
cliente que chegar. Se
a chegada do cliente ´ e um processo de Poisson com taxa λ
a) calcule a func¸ ˜ ao densidade de probabilidade do tempo entre clientes premi-
ados;
b) ache P(M
t
= k) para o n´ umero de prˆ emios dados no intervalo [o, t].
Exerc´ıcio 20. Usu´ arios chegam a uma loja segundo um processo de Poisson com
taxa λ = 20/hora. Ache o n´ umero esperado de vendas durante as 8 horas de
espedimente do dia se a probabilidade do cliente comprar ´ e 0,30.
Exerc´ıcio 21. Uma loja tem 3 portas. A chegada em cada porta forma um pro-
cesso de Poisson com taxas λ
1
=110, λ
2
=90, λ
3
=160 usu´ arios/hora. 30% dos
usu´ arios s˜ ao masculino. A probabilidade de que um masculino compre alguma
coisa ´ e 0,80, e a probabilidade de que um feminino compre alguma coisa ´ e 0,10.
Uma compra m´ edia ´ e avaliada em $4,50.
a)Qual o valor esperado do total de vendas feito ` as 10 horas do dia.
b)Qual ´ e a probabilidade de que o terceiro usu´ ario feminino para comprar
qualquer coisa chegue durante os primeiros 15 minutos? Qual ´ e o tempo espe-
rado de sua chegada?
29
Exerc´ıcio 22. Seja N ={N
t
, t ≤0} um processo de Poisson com taxa λ e suponha
que em um dado t N
t
= 1. Qual a distribuic¸ ˜ ao do tempo T
1
em que a chegada
ocorreu?
30

Sum´ rio a
1 Processos de Bernoulli 1.1 O Processo de Bernoulli, X . . . . . . . . . . . . . . 1.2 N´ mero de Sucessos em um Processo de Bernoulli, N u 1.2.1 Valor Esperado e Variˆ ncia de N . . . . . . . a 1.2.2 Distribuicao de N . . . . . . . . . . . . . . . ¸˜ 1.3 Tempo de Sucesso, T . . . . . . . . . . . . . . . . . 1.3.1 Valor Esperado e Variˆ ncia de T . . . . . . . a 1.3.2 Distribuicao de T . . . . . . . . . . . . . . . ¸˜ 1.4 Exerc´cios . . . . . . . . . . . . . . . . . . . . . . . ı 2 Processo de Poisson 2.1 Hip´ teses do Processo de Poisson . . . . . . . . o 2.1.1 Distribuicao de Nt . . . . . . . . . . . . ¸˜ 2.1.2 Valor Esperado de Nt e o Significado de λ 2.1.3 Tempo de Chegada . . . . . . . . . . . . 2.2 Tempo de Recorrˆ ncia (Forward) . . . . . . . . . e 2.3 Superposicao de Processos de Poisson . . . . . . ¸˜ 2.4 Decomposicao de um Processo de Poisson . . . . ¸˜ 2.5 Exerc´cios . . . . . . . . . . . . . . . . . . . . . ı 2 2 4 5 6 9 10 11 12 15 15 18 19 23 26 27 28 29

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

1

Cap´tulo 1 ı

Processos de Bernoulli
Neste cap´tulo estudaremos um processo estoc´ stico simples, denominado proı a ´ cesso de Bernoulli. Este e um processo a parˆ metro discreto no qual o conjunto a ´ de parˆ metros e o conjunto dos n´ meros inteiros, T ≡ N; al´ m disto, para cada a u e ¯ t ∈ N fixo, ele assume apenas os valores discretos 0 e 1. Estudam-se tamb´ m dois e processos associados - o n´ mero de sucessos e o tempo de sucesso de um processo u de Bernoulli. Apesar de sua simplicidade, o processo de Bernoulli serve para ilustrar conceitos, bem como algumas das principais quest˜ es que surgem, associados a processos o estoc´ sticos. Ainda, o n´ mero de sucessos consiste em um caso particular de caa u deia de Markov, a qual ser´ estudada em detalhes subsequentemente. a

1.1

O Processo de Bernoulli, X

O processo de Bernoulli tem uma relacao estreita com a id´ ia de ensaios de Ber¸˜ e noulli e de vari´ vel aleat´ ria binomial, conforme vimos em SCE-119. Recordando, a o consideram-se um experimento E e um evento associado A, com probabilidade de sucesso p; para n repeticoes independentes deste experimento, o n´ mero de suces¸˜ u ´ sos obtido e uma vari´ vel aleat´ ria binomial com parˆ metros n e p. a o a Nesta secao, para cada repeticao de E associaremos uma vari´ vel aleat´ ria Xn , ¸˜ ¸˜ a o que mapeia “sucesso” da n-´ sima repeticao em 1 e “fracasso” em 0. Note que o e ¸˜ conjunto destas vari´ veis, X = {Xn , n = 1, 2, . . .}, satisfaz a definicao de processo a ¸˜ ´ estoc´ stico; este ser´ o chamado processo de Bernoulli. Este processo e formaa a lizado a seguir, para facilitar futuras referˆ ncias. e Definicao 1. Considere uma sequˆ ncia de repeticoes de um experimento E e os ¸˜ e ¸˜ eventos {An ; n = 1, 2, . . .}, cada um dos quais estando associado a n-´ sima repeticao. ¸˜ ` e

2

respectivamente. h´ uma probabilidade constante p = 0.6 1. .2 1 X 0. . . s˜ o identicamente distribuidos e P e a unica medida de a ´ probalidade em Ω que satisfaz as propriedades (a) e (b). n = 1. ∀n = 1. A Figura 1. ¸˜ 2 1. Considere o c´ lculo da probabilidade de que os primeiros 2 bits sejam a recebidos corretamente e que os dois bits subsequentes sejam recebidos com erro. 2. O processo estoc´ stico X = {Xn . com parˆ metro ¸˜ a p = 0. ainda.8 0. Temos: P(X1 = X2 = 0.}. Assumindo que a interferˆ ncia incide independentee mente na transmiss˜ o de cada bit. .1 ilustra uma realizacao do processo X. Exemplo 2.Considere. .} e cha¸˜ a ´ mado de processo de Bernoulli com probabilidade de sucesso p se: (a) A1 . ´ ´ Note que X1 . . . 05 de que haja erro na a a transmiss˜ o de um bit. . 00226 3 .6 0. 3.8 1. 2. a ¯ (b) P(An ) = p. . . . X2 .. . E comum referir-se ao ¯ evento An = {Xn = 1} como sendo um ‘sucesso’ e An = {Xn = 0} como ‘fracasso’. . . s˜ o eventos independentes. 2.2 0 1 2 3 4 5 T 6 7 8 9 10 Figura 1. n = 1. P(An ) = 1 − p. Devido a interferˆ ncias que incidem em uma certa linha de transe miss˜ o de dados. . .4 1. Exemplo 1. . Xn = I{An } sendo I a funcao indicadora. 2. . Defina Xn como 1 ou 0 se o n-´ simo bit recebido for errado a e ou correto. X2 .4 0. X3 = X4 = 1) = P(X1 = 0)P(X2 = 0)P(X3 = 1)P(X4 = 1) = (1 − p)(1 − p)pp = (1 − p)2 p2 ≈ 0.1: Realizacao do processo de Bernoulli {Xn .} e um processo de Bernoulli com probabilidade de a ´ sucesso P(Xn = 1) = p = 0. . n = 1. . as vari´ veis aleat´ rias X1 . s˜ o indepena a o a dentes. Ent˜ o {Xn . A2 .05. .

. + Xn+m e o n´ mero de sucessos associado as tentativas n + 1. . ¸˜ 3 2.2: Realizacao do processo {Nn .5 2 N 1. . 1. X0 = 0 X1 = N1 − N0 = 0 4 . o qual e estudado nesta secao. ´ Exemplo 3. X1 (w) + X2 (w) + . denotado por Nn . n + m. Considere a realizacao do processo de Bernoulli da Figura 1. 2. Note que ¸˜ Nn+m − Nn = Xn+1 + Xn+2 + . . . n + 2. Note ¸˜ que o conhecimento do processo Nn permite recuperar o processo de Bernoulli original fazendo Xn = Nn − Nn−1 .2. . Note que N = {Nn . . 3. . . . . n = 0. + Xn (w) se n = 1. 1. 2. correspondente a realizaca ¸ Observacao 1. 4} com parˆ metro p = 0. . a a a ´ Nn . . . . temos: a N0 = 0. Seja X um processo de Bernoulli com probabilidade de sucesso p. ¸˜ a ˜ o de X da Figura 1. . O processo u ´ ` estoc´ stico {Nn . com n fixo. a ¸˜ Definicao 2.2 ´ Numero de Sucessos em um Processo de Bernoulli.5 1 0.a. . n ∈ N} e um u ´ processo estoc´ stico. . n = 1. . n. e discreta assumindo os valores 0. Ent˜ o. .2.5 0 1 2 3 4 5 T 6 7 8 9 10 Figura 1. n ∈ N} e um processo estoc´ stico a parˆ metro discreto e a v.1. . ´ Uma realizacao do processo N e mostrada na Figura 1.1. 2. ¸˜ Os n´ meros de sucesso {Nn . n ∈ N} s˜ o definidos por u a Nn (w) = 0 se n = 0.. N Considere as primeiras n tentativas de um processo de Bernoulli e considere o ´ n´ mero de sucessos obtido.

1 Valor Esperado e Variˆ ncia de N a ´ Se {Xn . = p 2 ) − E 2 (X ) = p − p2 = p(1 − p) = p · q (ii) Var(Xn ) = E(Xn n (iii) E(αXn ) = α0 P(Xn = 0) + αP(Xn = 1) = q + αp onde α ≥ 0. 2 Podemos obter o valor E(Nn ) de forma direta como segue: 2 Nn = ∑ Xi 2 + ∑ ∑ Xi X j i=1 i=1 j=i n 2 E(Nn ) = ∑ E(Xi 2 ) + ∑ ∑ E(Xi X j ) i=1 i=1 j=i n n n n n sendo E(Xi 2 ) = p e E(Xi X j ) = p2 temos que: 2 E(Nn ) = np + n(n − 1)p2 = np + n2 p2 − np2 = np(1 − p) + n2 p2 = npq + n2 p2 Estes c´ lculos indicam um caminho para se calcular os momentos de ordem a mais elevada para Nn . . . + Xn ) = np.} e um processo de Bernoulli com probabilidade de sucesso p.X2 = N2 − N1 = 0 X3 = N3 − N2 = 0 X4 = N4 − N3 = 1. Note que calculamos E(Nn ). . Var(Nn ) sem conhecermos a 5 . . . + Xn ) = npq. . 2 (iii) E(Nn ) = Var(Nn ) + E 2 (Nn ) = npq + n2 p2 . As propriedades (i). temos: (i) E(Nn ) = E(X1 + X2 + . n = 1.1. . (ii) e (iii) s˜ o provadas usando a E[g(Xn )] = g(1) · p + g(0) · (1 − p). (ii) Var(Nn ) = Var(X1 + X2 + . ¸˜ 1. Ent˜ o para qualquer n. Para (iii) temos g(Xn ) = αXn ¸˜ Usando a propriedade de linearidade do valor esperado e os resultados apresentados acima para Xn .2. ´ onde g(·) e uma funcao limitada. em conformidade com a realizacao de X dada na Figura 1. . . temos: a 2 3 (i) E(Xn ) = E(Xn ) = E(Xn ) = . 2.

Para qualquer n ∈ N. Para qualquer n. .. . Xm+n e independente de {X1 . . . . . . Nm ) = P(Nm+n − Nm = k) = n k p (1 − p)n−k k n k p (1 − p)n−k . como formalizado adiante. . As vari´ veis aleat´ rias N0 . e a 1. . . . . . . da seguinte forma: X1 = N1 . Nm s˜ o determinadas por X1 . m ∈ N P(Nm+n − Nm = k|N0 . . k ´ Recordando da Observacao 1 que Nn+m − Nn = Xn+1 + . . ´ Como {Xm+1 . de maneira que P(Nm+n − Nm = k|N0 . . . . . . . Nm ) = P(Nn+1 − Nm = k|X1 . . .2 Distribuicao de N ¸˜ Um ponto fundamental para a an´ lise de um processo consiste em estabelecer as a distribuicoes e distribuicoes condicionadas. Xm+n } e independente de {X1 . No entanto se quisermos calcular E(g(Nn )) onde g(·) ¸˜ ¸˜ ´ ´ e uma funcao limitada e necess´ rio conhecermos a funcao distribuicao de Nn . m ∈ N. . de imediato. . .. P(Nn = k) = n k p (1 − p)n−k . e simples compreender que Nn+m − Nn tamb´ m a o e tem distribuicao binomial. . . No caso em quest˜ o (processo {Nn . ¸˜ Corol´ rio 1. a X2 = N2 − N1 . . N1 . . Xm ) = P(Nm+n − Nm = k) e o Corol´ rio 1 completa a prova. . . . X2 . . Xm }. Lema 1. Xm ¸˜ a o a e vice-versa. . X2 . . . . logo podemos escrever P(Nm+n − Nm = k|X1 . k Demonstracao. Xm } temos que Nm+n − Nm = ´ Xm+1 . a prova e omitida. . a P(Nm+n − Nm = k) = Teorema 1. Para qualquer n. Xm ). O ¸˜ a ¸˜ ¸˜ ´ uso da probabilidade condicional nas provas que se seguem e uma das principais t´ cnicas usadas em estudos de processos estoc´ sticos.2.funcao distribuicao de Nn . X2 .. . . . 6 . Xm = Nm − Nm+1 . n ∈ ¸˜ ¸˜ a ´ N}). + Xn+m e a soma de n ¸˜ ´ vari´ veis aleat´ rias independentes. iniciamos observando que a vari´ vel aleat´ ria Nn e binomial com parˆ metro a o a ´ p. o que permite escrever o seguinte resultado.

Note que a independˆ ncia de Nm+n − Nm com relacao a N0 .Nn2 − Nn1 . Quando um processo apresenta esta caracter´stica. Nn1 )P(Nn2 − Nn1 . . s˜ o independentes. Usando o Teorema 1. Em consonˆ ncia. Nn1 ) = P(Nn3 − Nn2 |Nn2 − Nn1 . . O Corol´ rio 2 nos diz que os ‘incrementos’ no processo N s˜ o independena a tes ao longo de certos intervalos (note que os intervalos s˜ o disjuntos. a a lembre que o processo N e um caso particular de cadeia de Markov. Portanto o Corol´ rio 2 e verdadeiro para ¸ a ¸˜ a ´ qualquer processo {Zn . Este e um caso particular de quando a hist´ ria o o ´ ´ passada at´ m − 1 e irrelevante mas a hist´ ria em m e relevante. . . Nn j − Nn j−1 . Nn1 ) = P(Nn3 − Nn2 )P(Nn2 − Nn1 . Corol´ rio 2. . . ¸˜ ı ´ dizemos que tem ‘incrementos independentes’. . Vari´ veis aleat´ rias da forma Nm+n − ¸˜ a o Nm associada ao processo N podem ser encaradas como o ‘incremento’ do processo no intervalo entre t = m e t = m+n. m + n s˜ o independentes da hist´ ria passada at´ m (i. a a ´ intersecao entre eles e nula). Nn2 − Nn1 . Seja j = 3. ou seja. Demonstracao. n ∈ N}.Observacao 2. . isto e..e. no sentido que representam a quantidade da qual o processo ‘aumentou’ neste intervalo. . Se os Yi ´s tamb´ m a o e s˜ o identicamente distribu´dos. O Teorema 1 afirma que as distribuicoes do processo N relativas ¸˜ ¸˜ as tentativas m + 1. definido por: Zn = 0 Y1 +Y2 + · · · +Yn se n = 0 se n ≥ 1 sendo Y1 + Y2 + · · · + Yn vari´ veis aleat´ rias independentes. sem perda de generalidade. Nn+m = Nm + (Nm+n − Nm ). . como j´ a ´ comentamos. ava¸˜ liamos: P(Nn3 − Nn2 . . a o e ` a hist´ ria passada e irrelevante). Nm foi provada e ¸˜ sem lancar m˜ o da distribuicao de Xn . Nn1 ) = P(Nn3 − Nn2 )P(Nn2 − Nn1 |Nn1 )P(Nn1 ) = P(Nn3 − Nn2 )P(Nn2 − Nn1 )P(Nn1 ) Observacao 3 (Incrementos Independentes). Seja n0 = 0 < n1 < n2 < · · · < n inteiros. . os processos e o ´ ´ que satisfazem esta propriedade s˜ o denominados Markovianos. ent˜ o a distribuicao do incremento Zm+n − Zm n˜ o a ı a ¸˜ a 7 . Ent˜ o as vari´ veis aleat´ rias a a a o a Nn1 − Nn0 .

N13 − N7 = 3) = P(N5 = 4)P(N7 − N5 = 1)P(N13 − N7 = 3) = Portanto. 1. escrevemos: a P(N5 = 4. N13 = 8). . N7 − N5 = 1. . . bem como E(N5 N8 ). e o 5 4 2 1 6 3 p (1 − p)7 p (1 − p)1 p (1 − p)3 . n ∈ N} possui ‘incrementos independentes e estacion´ rios’. Nm+1 . . . . N13 − N7 = 3) e empregando o Teorema 1 e o Corol´ rio 2. . N7 = 5. . . Nm−1 ) e ¸˜ o ´ irrelevante para o c´ lculo de valores esperados associados as tentativas futuras. E(N5 N8 ) = E[N5 (N5 + N8 − N5 )] = E[N5 2 + N5 (N8 − N5 )] = E(N5 2 ) + E(N5 )E(N8 − N5 ) = 5p2 + 5pq + 5p3p = 23p2 + 5pq + 15p2 = 40p2 + 5pq ´ Finalizamos esta secao com um resultado util para c´ lculo de valores espera¸˜ a dos. N13 = 8) = P(N5 = 4. Simule 5 realizacoes ı ¸˜ para o processo N e calcule a m´ dia para N2 N4 .. Seja p = 0. Considere novamente o processo de Bernoulli do Exemplo 1. N7 = 5. Calcule a probabilidade conjunta P(N5 = 4. N3 ). Solucao: o evento (N5 = 4. N13 = 8) = 200p8 (1 − p)11 = . u Ent˜ o. . . N7 − ¸˜ ´ N5 = 1. 4 1 3 8 . neste caso.depende de m e. Considere um processo de Bernoulli e os n´ meros de sucessos Nm . N13 = 8) e equivalente ao evento (N5 = 4. a ` Repare na conex˜ o disto com os coment´ rios da Observacao 2. escrevemos N8 = N5 + N8 − N5 e. compare com o valor te´ rico. Calcule: (i)E(N5 |N3 ). a Exemplo 4. (ii)E(N5 N11 |N2 . Para calcular E(N5 N8 ). . portanto. . diz-se que o processo {Zn . . a E(g(Nm . Calcule E(N2 N4 ). P(N5 = 4. N7 = 5. Teorema 2. Note que o Teorema 2 diz que a hist´ ria passada (N0 . . Nm+n )|Nm ) Observacao 4. . ı Exerc´cio 2 (Para entregar). Nm ) = E(g(Nm . . . Nm+n )|N0 . . N7 = 5. a a ¸˜ Exerc´cio 1.

que con´ siste basicamente nos intantes de ocorrˆ ncia do k-´ simo sucesso. Sejam {Xn . T1 . k ∈ N} s˜ o definidos por a Tk (w) = 0 k=0 minn {n : Nn (w) ≥ k} k = 1.) com distribuicao ¸˜ P(Tk − Tk−1 = j) = p(1 − p) j−1 . 2. n ∈ N}. Os tempos de sucesso u {Tk . ii) Tk ≤ n ⇐⇒ Nn ≥ k (o k-´ simo sucesso ocorre at´ n se. 2. Como veremos a seguir.i..d. (1. . . a ı Definicao 3.3: Figura ainda n˜ o dispon´vel. que associa o processo T e ¸˜ aos processos X e N. 2. De fato. n ≥ 1} um processo de Bernoulli com probabilidade p de ¸˜ sucessos e {Nn .c.3 Tempo de Sucesso.3. o n´ mero e e u de sucessos nas primeiras n tentativas e pelo menos k). . e somente se. s˜ o v. Similarmente ao que ocorria com os n´ meros de sucesso.. c. Figura 1. O conceito e mais e e facilmente entendido atrav´ s da ilustracao na Figura 1. (1. T Um outro importante processo associado a um processo de Bernoulli {Xn . independentes e identicamente distribuia das (i. a Lema 2. . . denotado por {Tk . n = ´ 1. k = 1. . iv) Xn = 1. as o a seguintes afirmacoes podem ser facilmente deduzidas: ¸˜ i) Tk = n ⇐⇒ Nn−1 = k − 1 e Nn = k. T2 − T1 . . ´ iii) Tk = kI{X j =1} . . . .2) 9 .1. .a. vari´ veis aleat´ rias desta forma s˜ o independentes a o a sempre que os intervalos aos quais elas se referem n˜ o se intercalam. ∃k : n = Tk Xn = 0.. ´ Note que Tk − Tk− j e o intervalo entre o (k − j)-´ simo sucesso e o k-´ simo sue e cesso. n ∈ N} os n´ meros de sucesso associados. as vari´ veis ¸˜ u a aleat´ rias Tk s˜ o determinadas por Xn bem como por Nn e vice-versa.} e o denominado “tempo de sucesso”.. . T3 − T2 .1) Observacao 5.

X1 = 0 . j=1 ∑ jpq j−1 = p .d. . . T2 − T1 = j2 |T3 − T2 = j3 )P(T3 − T2 = j3 ) = P(T1 = j1 . T2 − T1 = j2 )P(T3 − T2 = j3 ) = P(T1 = j1 )P(T2 − T1 = j2 )P(T3 − T2 = j3 ) Parte b) Dada a independˆ ncia demonstrada na parte (a). . p2 Var(Tk+1 − Tk ) = 10 . . . XTk−1 + j = 1|Tk−1 ) = (1 − p) j−1 p 1. . X j1 + j2 −1 = 0. e podemos escrever: o k E(Tk ) = E(T1 ) + · · · + E(Tk − Tk−1 ) = . P(T1 = j1 . X j1 −1 = 0. T2 − T1 = j2 ) = P(T1 = j1 |T2 − T1 = j2 )P(T2 − T1 = j2 ) = P(X0 = 0. ∞ 1 (1 − p) . A prova pode ser concluida usando o mesmo argumento. X1 = 0 . Por exemplo. . p assim como k(1 − p) Var(Tk ) = .3. X j1 −1 = 0. .1 Valor Esperado e Variˆ ncia de T a ´ E poss´vel calcular E(Tk+1 − Tk ) e Var(Tk+1 − Tk ) diretamente. . . segue que Tk e a soma de k vari´ veis a aleat´ rias i.. . X j1 = 1)P(T2 − T1 = j2 ) = P(T1 = j1 )P(T2 − T1 = j2 ) sendo que na p´ n´ ltima passagem usamos o fato de que Xn e Xm s˜ o independentes e u a para n = m. . temos que e P(Tk − Tk−1 = j) = P(Tk − Tk−1 = j|Tk−1 ) = P(XTk−1 +1 = 0. . empregando o fato ı de Tk+1 − Tk ter a distribuicao geom´ trica dada no Lemma 2. p2 ´ Como Tk = T1 + (T2 − T1 ) + · · · + (Tk − Tk−1 ). XTk−1 + j−1 = 0. T3 − T2 = j3 ) = P(T1 = j1 . . X j1 = 1| X j1 +1 = 0. Por exemplo.Demonstracao. avaliamos ¸˜ ¸˜ ¸˜ P(T1 = j1 .T2 − T1 = j2 .i. indutivamente. X j1 + j2 = 1)P(T2 − T1 = j2 ) = P(X0 = 0. Parte a) Empregando a relacao da Observacao 5 (iv). ¸˜ e E(Tk+1 − Tk ) = Similarmente.

. ¸˜ Tk ≤ n ⇐⇒ Nn ≥ k. n = k. Nn = k) = P(Nn−1 = k − 1. para a n < k teremos P(Tk = n) = 0. ¸˜ Tk = n ⇐⇒ Nn−1 = k − 1 e Nn = k e. avaliamos: a P(Tk = n) = P(Nn−1 = k − 1. .2 Distribuicao de T ¸˜ Teorema 3. }. . portanto. . . . . . Nn − Nn−1 = 1) Em seguida. k + 1. j n = k. . temos: P(Tk ≤ n) = P(Nn ≥ k) = ∑ P(Nn = j) = ∑ j=k n n j=k n j n− j pq j 11 . tem-se: i) n − 1 k n−k P(Tk = n) = pq . . Demonstracao. .1. note que Tk (w) ≥ k para qualquer w ∈ Ω.3. Assim. Na sequˆ ncia. 2. e i) Conforme foi comentado na Observacao 5. consideraremos n ≥ k. k + 1. Para qualquer k ∈ {1. k−1 ii) P(Tk ≤ n) = ∑ n j=k n j n− j pq . P(Tk = n) = P(Nn−1 = k − 1. pois o k¸˜ ´ esimo sucesso n˜ o pode ocorrer em menos do que k tentativas. Desta forma. empregando o Corol´ rio 2 e o Teorema 1. Inicialmente. para n ≥ k. k−1 k−1 ii) Conforme a Observacao 5 (ii). Nn − Nn−1 = 1) = P(Nn−1 = k − 1)P(Nn − Nn−1 = 1) = n − 1 k−1 n−1 k p · (1 − p)n−1−k+1 · p = p (1 − p)n−k . bem como P(Tk ≥ n) ≥ P(Tk ≥ k) = P(Ω) = 1. de acordo com o Lema 1.

Considere uma poss´vel realizacao ω = (S. 1 iii) P(T3 = 5) = = = j=0 ∑ P(T3 = 5|T1 = j)P(T1 = j) ∑ 3 3 ∞ j=1 4− j 2 j−1 1 p (1 − p)3− j p (1 − p) j−1 1 0 4− j 3 4 3 p (1 − p)2 = p (1 − p)2 1 2 j=1 ∑ Exemplo 6.) de uma seq¨ encia ı ı ¸˜ uˆ de lancamentos independentes com dois poss´veis resultados S e F. Este fato pode ser usado. 0794. 2 1. Solucao: i) P(T3 = 5) = ¸˜ 4 2 p3 (1 − p)2 . F. em conjunto com a lei dos grandes n´ meros. Por exemplo. e calculando a m´ dia obtemos: e m´ dia de I{T3 =5} = 0.Exemplo 5. simulando 100. S . sabe-se que E(IA ) = P(A). para inferir u probabilidades. Calcule P() 4 3 p (1 − p)2 = 0. 0793. com p = 0. e Confirmando o resultado.4 Exerc´cios ı Exerc´cio 3. Determine o ¸ ı valor da vari´ vel aleat´ ria. .000 realizacoes para ¸˜ T3 . Calcule i) P(T3 = 5). Para um evento A qualquer. a o 12 . 3. obtendo os valores de I{T3 =5} . iii) P(T3 = 5) = ∑∞ P(T3 = j=0 5|T1 = j)P(T1 = j) e compare com (i). ii) P(T3 = 5|T1 ). F. ii) P(T3 = 5|T1 ) = P(T3 − T1 = 5 − T1 |T1 = j1 ) = P(T2 = 5 − j1 ) = 4 − T1 2 p (1 − p)3−T1 . . E(I{T3 =5} ) = P(T3 = 5) = Exemplo 7.

} um processo de Bernoulli. n]. N4 = 1) b)P(N1 = 0. o Exerc´cio 9. Mostre que ı E(Tm+n |Tn ) = Tn + m . Determinar o valor esperado de N3 + 2N7 dado o hist´ rico. . No problema mostrado no exemplo 4. Calcule: ı a) p = P(Xn = 1) b) P(T4 − T3 = 12) c)E(T4 − T3 ) . p {T7 ≤ 16} . N15 = 12) Exerc´cio 6. Prove que P(T8 = 17|T0 . Calcule: ı a)P(N1 = 0. N3 = 1. Para p = 0. . ı Se p = P(Xn = 1) = 0. ı Exerc´cio 12. . Suponha a taxa de passagem de 4 ve´culos/minuto. T7 ) = pq16−T7 . .8. Mostrar que E(Nn+m |Nn ) = Nn + mp . Considere o processo de Bernoulli com probabilidade p = 0.8 . As ı cinco primeiras tiragens resultam em {SFFSS} .} um processo de Bernoulli.05 a) Qual a probabilidade de X1 = 1. N3 = 2. calcule: ı a)E(N3 ) b)E(N7 ) c)E(N3 + 4N7 ) d)Var(N3 ) e)Var(N7 − N3 ) f)E(6N4 + N7 |N2 ) Exerc´cio 8. N4 = 2) c)P(N8 = 6. . . 2. E(T13 − T3 ) d) Var(T2 + 5T3 ) Exerc´cio 11. 13 . X2 = 1 e X3 = 1 ? b) P(N3 = 1) ? Exerc´cio 5. . n = 1. N3 = 1. Seja {Xn . . 2. e Tk marca o tempo (em segundo) do k-´ simo ve´culo ter passado e ı por tal ponto. qual a probabilidade de um ı mancal estar dentro da especificacao ? Qual a probabilidade de um rebite sair da ¸˜ especificacao ? Qual e o valor esperado de pecas fora da especificacao depois de ¸˜ ¸ ¸˜ ´ 400 fabricadas ? Exerc´cio 7. ı Exerc´cio 10. Seja {Xn . .Exerc´cio 4. n = 1. Sejam Nn o n´ mero de ve´culos que passam por um certo ponto no ı u ı intervalo (0. . N2 = 0.

o caroneiro ainda continua no seu lugar. Mostre que a rec´proca e tamb´ m verdadeira: se uma ı e ´ vari´ vela aleat´ ria T e tal que a o ´ P(T > n + m|T > n) = P(T > m) para todo m. Um duelo entre dois homens e feito em rounds. Se uma vari´ vela aleat´ ria T tem distribuicao geom´ trica. qual a probabilidade de ser pego pelo 37¯ motorista ou antes? Exerc´cio 16. T2 ] para g(b) = αb . T2 = m) c)E(T3 |T1 = k.Exerc´cio 13. a ¸˜ e Exerc´cio 15. n ∈ N ent˜ o T tem distribuicao geom´ trica. Calcule: ı a)P(T1 = k. a) Ache a distribuicao de S. calcule o valor esperado de T . e claro que motoristas diferentes fazem sua decis˜ o de parar ou n˜ o indea a ´ pendente de cada um. T2 = m) d)E[g(T3 )|T1 . Exerc´cio 17. Exerc´cio 14. α ∈ [0. durante os quais 10 carros passaram. DICA: crie um processo de Bernoulli identifiando sucesso ≡ “um ou ambos homens morrem no n-´ simo round”. o o c) o duelo termine no 13¯ round com o 1¯ vivo. 1] . ¸˜ b) Dado que depois de 5 minutos. A probabilidade de um motorista parar para um caroneiro e p = ı ´ 0. Imagine ı ı que dois carros passam a cada minuto (determin´sticamente). ent˜ o ı a o ¸˜ e a P(T > n + m|T > n) = qm = P(T > m) para todo n e m. da seguinte forma: ı ´ o em cada round. o b) o 1¯ termine vivo. b)P(T3 = n|T1 = k. ambos atiram simultaneamente e a probabilidade de o 1¯ matar o ´ o o ´ o 2¯ e p1 . k < m < n . T2 = m. T3 = n). Seja a chegada de carros descrita no exerc´cio anterior. Dado que nosso caroneiro contou que 30 carros passaram o sem lhe dar carona.04. Ache a a probabilidade de que: o a) o duelo termine no 13¯ round. Var(S). e 14 . Seja S o tempo em ı segundos em que ele finalmente consegue a carona. e do 2¯ matar o 1¯ e p2 (n˜ o necessariamente p1 + p2 = 1). calcule E(S).

. cujo apelo era mais did´ tico do que aplicativo. ı ¸ 2.t ≥ 0}. 1.1. no estudo ¸˜ de chegada de clientes em uma loja. o 15 . Quando o processo de contagem satisfaz certas hip´ teses (simplificadoras). Este processo u ´ ´ e simples do ponto de vista conceitual e intuitivo. aumenta somente por saltos. ı a A partir de agora estudaremos o processo de Poisson.Cap´tulo 2 ı Processo de Poisson No cap´tulo anterior estudamos processos estoc´ sticos discretos bastante simples. para o qual certas hip´ teses valem. um processo estoc´ stico sia milar ao processo de n´ mero de sucessos de um processo de Poisson. que e util para descrever o processo de Poisson. ı Diferentemente do processo de Bernoulli e dos processo de n´ mero de sucessos u e de tempo de sucessos associados. o ´ ent˜ o diz-se que ele e um processo de Poisson. Note que N e um processo estoc´ stico a parˆ metro (de tempo) cont´nuo e a a ı com espaco de estado discreto N = {0. o processo de Poisson a consiste em um caso particular do processo de contagem de chegadas.t ≥ 0} e tal que para cada w ∈ Ω o mapeamento ´ a ´ t → Nt (w) e n˜ o decrescente. em cada instante de tempo t ≥ 0.}. o que ı traz uma certa compexidade anal´tica. onde Nt (w) e o n´ mero de chegadas no intervalo [0. a vari´ vel aleat´ ria Nt a o registra o total do n´ mero de chegadas. Desta forma. como em telefonia. mas e cont´nuo no tempo. 2. No processo de contagem de chegada {Nt . .t] para a realizacao u ¸˜ ´ w ∈ Ω. e cont´nuo a direita e ı ´ N0 (w) = 0. u ´ Em termos formais. a o processo de Poisson encontra diversas aplicacoes. denominado de processo de contagem de chea a ´ gadas. N = {Nt .1 Hip´ teses do Processo de Poisson o H´ um certo processo estoc´ stico. . Veja um exemplo de realizacao ¸ ¸˜ do processo na Figura 2. ou de sa´das de pecas de um estoque.

Considere um processo estoc´ stico ¸˜ a a {Zk . s ≥ 0. ´ ´ Se por um lado e verdade que e relativamente dif´cil que as hip´ teses de Poisson ı o sejam perfeitamente verificadas na pr´ tica. ı Definicao 5 (Incrementos Estacion´ rios).1: Figura ainda n˜ o dispon´vel. Novamente. Se a distribuicao da vari´ vel a ¸˜ a aleat´ ria Zt+s − Zt for independente de t. Realizacao do processo de contagem a ı ¸˜ {Nn . t+s]. k3 . Dada esta independˆ ncia do tempo. N´ s formalizamos a nocao de incrementos independentes. Se as vari´ veis aleat´ rias Zk1 +k2 − a a o Zk1 e Zk3 +k4 − Zk3 forem independentes para quaisquer k1 . pois os incrementos em intervalos disjuntos eram independentes. e por isto o processo de Poisson e ¸˜ ¸˜ considerado um bom modelo para diversos processos de contagem. o n´ mero de chegadas a ¸˜ u Nt+s − Nt .Figura 2. que o n´ mero de sucessos do processo de Ber¸˜ u noulli tem “incrementos independentes”. Chama-se Nt+s − Nt o n´ mero de chegadas no intervalo (t. da seguinte forma. Estudaremos as hip´ teses de Poisson a seguir. por exemplo. ent˜ o dizemos que o processo a tem incrementos independentes. Se considerarmos. temos: 16 . t. Considere um processo estoc´ stico ¸˜ a {Zk . k2 . a chegada de pessoas a um est´ dio. ent˜ o dizemos que o processo tem increo a mentos estacion´ rios. pois quando tratamos dos incrementos pod´amos fazer um “shift no tempo”. k4 tais que os intervalos (k1 . k ∈ T}. sendo T o conjunto de parˆ metros. depende de s mas n˜ o de t. da Observacao 3. por outro lado em um grande n´ mero de a u ´ aplicacoes elas representam boas aproximacoes.. ou seja.. a e ´ dizemos que o processo e estacion´ rio. a a teremos que considerar que todas as pessoas chegam sozinhas. o Notacao 1. h´ semelhanca com o n´ mero a a ¸ u de sucessos em um processo de Poisson. para refereno ¸˜ cia posterior. Formalmente. k3 + k4 ] forem disjuntos. k ∈ T}. mas n˜ o de sua “localizacao”. n ∈ N}. a ´ A terceira e ultima hip´ tese consiste no fato que n˜ o ocorrem chegadas sio a multˆ neas. ¸˜ u Recorde. A segunda hip´ tese consiste no fato que os incrementos dependem do “comprio mento” do intervalo. Definicao 4 (Incrementos Independentes). sendo T o conjunto de parˆ metros. ´ A priemira hip´ tese considerada e uma transposicao direta: o n´ mero de cheo u ´ gadas em um certo intervalo e independente do n´ mero de chegadas em um outro u intervalo. k1 + k2 ] (k3 . Formalizamos o conceito como segue.

´ ii) tiver incrementos estacion´ rios. Nt2 − Nt1 . . . substituindo na equacao anterior. temos que Ns+t −Nt e independente do hist´ rico o ¸˜ o ´ a passado Nt1 . Nt2 . . a ¸˜ 17 . Nt+s − Nt e independente de {Nu . . . . a P(Nt3 −Nt2 |Nt1 . Ntn ) = P(Ns+t − Nt ) e. . Ent˜ o. . a distribuicao a ¸˜ de Ns+t − Nt e independente de t (estacionaridade). O resultado segue por inducao. Nt2 − Nt1 . . Ntn − Ntn−1 . podemos escrever que P(Ns+t − Nt |Nt1 . . .t ≥ 0}. . elas s˜ o equivalentes. Ou seja. Dizemos que o processo tem chegadas n˜ o simultˆ neas a a se os saltos em Nt (w) forem de amplitude unit´ ria. para qualquer s. . ı e o ` Contudo. Ou seja. . . Nt2 . . a a Observacao 6. . Ntn . Note que o conhecimento de Nt1 .t ≥ 0. Ntn e equivalente ao conhecimento de ´ Nt1 . Nt1 = Nt1 Nt2 = Nt1 + (Nt2 − Nt1 ) . . u ≤ t}. ´ iii) apresentar chegadas n˜ o simult˜ neas. obtemos ¸˜ P(Ns+t − Nt |Nt1 . < tn ≤ t. Nt2 − ´ Nt1 . Nt2 − Nt1 . e da´ obtemos ´ P(Nt2 − Nt1 |Nt1 ) = P(Nt2 − Nt1 ) ⇒ (Nt2 − Nt1 ) e Nt1 s˜ o independentes. . a Definicao 7. . . Considere um processo de contagem ¸˜ a a de chegadas {Nt . Nt2 − Nt1 e Nt3 − Nt2 s˜ o independentes. . Ntn − Ntn−1 . A seguir mostramos que a hip´ tese (i) da a o definicao leva a hip´ tese de independˆ ncia incremental. . Nt2 . Note que a hip´ tese (i) da Definicao 6 n˜ o parece (ao menos em ¸˜ o ¸˜ a princ´pio) idˆ ntica a hip´ tese de incrementos independentes. Nt2 −Nt1 ) = P(Nt3 −Nt2 ) ⇒ (Nt3 −Nt2 ) e independente de Nt1 . . Nt+s − Nt e independente de Nt1 . . Ntn − Ntn−1 ) Da hip´ tese (i) da Definicao 6. . . Logo Nt1 . Um processo de chegada N = {Nt . .Definicao 6 (Chegadas n˜ o Simultˆ neas). Ntn = Ntn−1 + (Ntn − Ntn−1 ) portanto P(Ns+t − Nt |Nt1 . Ntn − Ntn−1 ) = P(Ns+t − Nt ). ou seja. . Ntn ) = P(Ns+t − Nt |Nt1 . quando t1 < t2 < .t ≥ 0. a demonstracao reversa e ¸˜ o e ¸˜ ` ´ deixada ao leitor. . . ı Ou seja. Nt2 . para qualquer s. . . Nt2 − Nt1 . .t ≥ 0} e chamado um processo de ¸˜ ´ Poisson se: i) tiver incrementos independentes. para quase todo w. . .

N4.t ≥ 0} um processo de Poisson com taxa λ = 8.7 − N2. tracadas na ¸˜ ¸ Figura 2. e Exemplo 8.t ≥ 0} e um processo de Poisson. e mais simples (e igualmente did´ tico) ¸˜ a partirmos propondo a distribuicao de um incremento Nt+s − Nt e em seguida verifi¸˜ ` car que de fato esta distribuicao corresonde as hip´ teses do processo.5 = 17)P(N3.7 e N4. P(Nt+s − Nt = k|Nu . N3. a Com respeito ao item (iii). ¸˜ a uma distribuicao. Note que a distribuicao e bastante assim´ trica para P(Ns+t − Ns = k) ¸˜ ´ e ´ quando k e pequeno. N4. N4. H´ dois fatos a serem verificados.7 − N2.2. devemos verificar se os ´tens (i) a (iii) da Definicao 7 s˜ o satisfeitos.5 = 5.3 − N3.7 = 14) = P(N2. como segue.6 = 14) 18 . ¸˜ o Teorema 4. N3. ent˜ o.1 Distribuicao de Nt ¸˜ ´ E poss´vel partir das hip´ teses que definem o processo de Poisson e encontrar as ı o ´ distribuicoes associadas de N. e que vai se tornando mais sim´ trica na medida em que k e aumenta. ¸˜ Segundo. k! (2. ı ¸˜ a assumindo que a distribuicao e como em (2. de fato. u ≤ t) e igual a e k! .7 .7 = 14) = P(N2.5 .3 − N3.5 . ´ N4.1. Os ´tens (i) e (ii) s˜ o triviais.2 = 5)P(N0. a distribuicao aproxima-se da normal com ¸˜ m´ dia λt. ent˜ o a P(N2. pois ¸˜ ´ ı a −λt (λt)k ´ de (2. Primeiro.1) vem que P(Nt+s − Nt = k|Nu .1) e.1). Deixamos isto ao encargo do leitor. Seja N = {Nt .5 = 5)P(N4.7 = 22. N3. para qualquer t. u ≤ t) = P(Nt+s − Nt = k) = e−λt (λt)k .1) ´ Demonstracao. Se {Nt . Queremos calcular P(N2.5 = 17.3 = 36) = P(N2. para valores elevados de k.3 e equivalente a N2.5 = 17. se (2.5 = 17. n˜ o depende de t e nem dos valores passados do processo.3 − N3. N3. Contudo.2.7 − N2.5 = 17)P(N1. s ≥ 0 a ´ e k ≥ 0. valor este que s´ o depende do “intervalo”s.3 = 36) O conhecimento de N2.5 .7 = 22. temos: vide notas de aula ´ E interessante visualizar as curvas da distribuicao do Teorema 4. N3.

8 (4.1 0. N4.1.8)14 · · 17! 5! 14! 2.6 (8 × 0.5)17 e−8×1.6)5 e−4.t ≤ 0 um processo de Poisson P(Nt = n) = Vamos calcular E(Nt ) E(Nt ) = = e−λt (λt)n .2)5 e−8×0.5 (8 × 2.35 0. 1.Poisson ~ e 0. t 1000 800 600 400 200 0 Figura 2.6 (9. k 2000 1800 1600 1400 (−lt) (lt) /(k!) k 1200 tempo.2: Distribuicao dos incrementos Ns+t −Ns de um processo de Poisson com ¸˜ taxa λ = 1/100 Assim P(N2.2 Valor Esperado de Nt e o Significado de λ Seja Nt .7 = 22.5 = 17. .6)14 · · 17! 5! 14! = e−20 (20)17 e−9.05 0 0 2 4 6 8 10 unidades. . n! n=0 ∞ ∑ nP(Nt = n) ∑n 19 e−λt (λt)n n! ∞ n=0 . . 2.3 = 36) = e−8×2.15 0.25 0.2 (8 × 1.3 0. n = 0.2 0. N3.4 0.

λ e a ‘taxa m´ dia’ de chegadas. ¸˜ λ= E(Nt ) . P(Nt = n) = e−λt (λt)n . onde n = 1 ⇒ j = 0 e n → ∞ ⇒ j → ¸ a E(Nt ) = (λt)e−λt (λt) j = λt ∑ j=0 j! ∞ eλt ´ Note que o resultado acima sugere que o significado de λ e o do valor esperado de chegadas em um certo intervalo de duracao t. Lema 3. o Qaul a probabilidade de 10 ou mais chamadas ocorrerem entre 10h e 18h de um dia? Qual a probabilidade de mais de uma chamada nas primeira 8 horas do dia? Solucao: ¸˜ λ = 20 chamadas por dia = 20/24 chamadas por hora . que estabelece que λ tem o significado da raz˜ o entre a probabilidade de a uma chegada em um pequeno intervalo. dividido por t. 2.= n=1 ∑n ∞ e−λt (λt)n−1 (λt) (n − 1)! = λte−λt ∞. n! (i)Sabemos que P(Nt+s − Nt = n) = P(Ns ) = s = 8 e n = 10 temos ∞ ∞ 20 Assim. 20 20 ∞ e− 3 ( 20 )n e− 24 8 ( 24 8)n 3 P(N8 ≥ 10) = ∑ P(N8 = n) = ∑ = ∑ n! n! n=10 n=10 n=10 20 . . 1. Esta id´ ia e reforcada pelo resultado que e e ´ ¸ segue. n=1 ∑ (n − 1)! ∞ (λt)n−1 Fazendo a mudanca de vari´ vel j = n − 1. fazendo t = 10. . t ´ Ou seja. A prova vem de imediato da distribuicao ¸˜ ´ dos incrementos e e omitida. . n = 0. P(Nt = 1) =λ t→0 t lim Exemplo 9. n! e−λs (λs)n . Suponha que em um terminal telefˆ nico chegam 20 chamadas por dia.

e somente se. t = 8h P(N8 ≥ 2) = 1 − P(N8 ≤ 1) = 1 − P(N8 = 0) − P(N8 = 1) 20 e− 24 8 ( 20 8)0 e− 24 8 ( 24 8)1 24 = 1− − 0! 1! 20 20 20 20 20 = 1 − e− 3 − e− 3 = 1 − e− 3 1 + 3 3 20 20 e− 3 ( 20 )n 3 n! n=0 9 20 —— Exemplo 10. e o 21 Assim . Este teorema e de f´ cil uso quando existe uma forte evidˆ ncia a e ´ para sugerir a independˆ ncia de Nt+s − Nt do hist´ rico passado Nu . a ´ (b) E{Nt+s − Nt |Nu . ´ E(N18 − N10 ) = (a) Para quase todo w. u ≤ t. 24 3 (ii) E(Nt+s − Nt ) para 10 ≤ t ≤ 18 P(Nt+s − Nt ) = P(Ns ) E(Nt+s − Nt ) = E(Nt+s ) − E(Nt ) = λ(t + s) − λt = λs 20 20 · 8 = chamadas . Qual o valor esperado do n´ mero de chamadas do Exemplo 9? Conu sidere os dois intervalos 0 ≤ t ≤ 8h e 10 ≤ t ≤ 18h? Solucao: ¸˜ (i) E(Nt ) = λt. cada salto Nt (w) e de magnitude unit´ ria. 24 3 Teorema 5. ı O teorema anterior d´ uma caracterizacao qualitativa mais simples do proa ¸˜ cesso de Poisson. A definicao do processo de Poisson e puramnete qualitativa.t ≤ 0} e um processo de Poisson se.Devemos usar que P(N8 ≥ 10) = 1 − P(N8 ≤ 10) = 1 − ∑ (ii)P(Nt ≥ 2). o sur¸˜ ¸˜ ´ preendente e que estes axiomas qualitativos especificam completamente a distribuicao ¸˜ ´ de Nt e as leis probabil´sticas do processo como um todo. u ≤ t} = λs A prova deste teorema ser´ omitida. 0 ≤ t ≤ 8 E(N8 ) = 20 20 · 8 = chamadas . a Observacao 7. N = {Nt .

mas existem dados para se obter a distribuicao do n´ mero de chegada ¸˜ u em v´ rios intervalos de tempo. Considere o n´ mero ¸˜ o u de chegadas em dois intervalos de tempo disjuntos X1 = Nt1 +s − Nt1 . ∞) que e a uni˜ o de um n´ mero finito de intervalos a u ´ disjuntos tal que a soma dos comprimentos e b.´ O pr´ ximo teorema e de f´ cil uso onde os axiomas de independˆ ncia n˜ o s˜ o o a e a a evidentes. Ent˜ o a P(X1 + X2 = n) = ∞ j=0 ∑ P(X1 = j)P(X1 + X2 = n|X1 = j) j=0 = ∑ P(X1 = j)P(X2 = n − j) e−λs1 (λs1 ) j e−λs2 (λs2 )n− j j! (n − j)! j=0 ∞ ´ usamos na ultima passagem o fato de X2 ser independente de X1 . e somente ´ se. N = {Nt . ı a a 22 .t ≥ 0} e um processo de Poisson com taxa λ se. e−λb (λb)k P(NB = k) = k! para qualquer intervalo B ⊂ [0. ´ Demonstracao. (i) Provaremos o teorema s´ em um sentido. X2 = Nt2 +s2 − Nt2 em um processo de Poisson com taxa λ. a Teorema 6. Logo P(X1 + X2 = n) = ∑ ∞ = e−λ(s1 +s2 ) ∑ = Mas ∞ (λs1 ) j (λs2 )n− j j!(n − j)! j=0 ∞ e−λ(s1 +s2 ) n! j=0 ∑ ∞ n! (λs1 ) j (λs2 )n− j j!(n − j)! j=0 ∑ n! (λs1 ) j (λs2 )n− j = (λs1 + λs2 )n j!(n − j)! e−λ(s1 +s2 ) (λs1 + λs2 )n n! portanto P(X1 + X2 = n) = (ii) A rec´proca n˜ o ser´ provada.

.. . P(NAn = kn ) Sendo P(NAi = ki ) = e−λai (λai )ki e−λb (λb)k . (T0 = 0. . P(NB = k) = temos ki ! k k! a1 k1 !k2 ! . . + kn = k ∈ N. .. .. . NAn = kn |NB = k) = . para quase todo w. . . ent˜ o NA1 . . . . . NA2 = k2 .Proposicao 1. . . Tn (w).1. a para k1 + k2 + .. ´ Seja Xn = Tn − Tn−1 . kn ! b k1 P(NA1 = k1 . . NAn = kn ) P(NB = k) a Se A1 . an b kn 2. . . . cont´nua a direita e aumenta somente por ¸˜ ı saltos unit´ rios. a2 . . NAn s˜ o independentes.t]”) = eλt Devemos observar ainda algumas propriedades da vari´ vel aleat´ ria Xn : a o P(Xn > t|Xn−1 = s) = P(“zero chegadas entre (s. . .3 Tempo de Chegada Seja N = {Nt . temos P(NA1 = k1 . an ¸˜ a os respectivos comprimentos de A1 . . . . Esta funcao e completamente determinada pelos instantes de salto a ¸˜ ´ T1 (w). . . . NA2 = k2 . Xn e o intervalo de tempo entre e as chegadas n − 1 e n. . NAn = kn ) = P(NA1 = k1 ) . An s˜ o disjuntos. . An intervalos disjuntos com uni˜ o B.. T2 . . A2 . . . logo a a P(NA1 = k1 . an b kn . . . por conveniˆ ncia).t]. Tn os sucessivos instantes (ou tempo) de chegada. + an . ou seja P(Xn > t) = P(“zero chegadas entre [0. An e b = a1 + a2 + + . . . . T2 (w). .t + s]”) 23 . . A ´ a ` funcao t → Nt (w) e n˜ o decrescente. A2 . NAn = kn |NB = k) = a1 k! k1 !k2 ! . . A2 .2) Demonstracao. vamos usar o fato de ¸˜ que {Xn > t} significa o mesmo que ter ocorrido zero chegadas no intervalo [0. NAn = kn e NB = k temos ¸˜ P(NA1 = k1 . (2. . . . . . Denotamos T1 . Se NA1 = k1 . . Ent˜ o.t + s]” | Xn−1 = s) = P(“zero chegadas entre (s. . Para determinar a distribuicao de Xn . . . . . NAn = kn |NB = k) = P(NA1 = k1 .t ≥ 0} um processo de Poisson com taxa λ. kn ! b k1 . Sejam A1 . . . . . . . . . . sejam a1 . . . .

. T2 .P(Xn > t|Xn−1 = s) = P(Xn > t) Por outro lado P(Xn > t) = eλt . o que implica que X tem distribuicao exponencial. Notemos que uma parte do teorema j´ foi provada. ¸˜ Teorema 7. ı ¸˜ Lembrando que se uma vari´ vel aleat´ ria tem distribuicao exponencial. os tempos de chegadas T1 . Conclus˜ o: a Os tempos entre chegadas Xn s˜ o vari´ veis aleat´ rias independentes e identicaa a o mente distribu´das com distribuicao exponencial λ − eλt . logo =⇒ P(Xn > t|Xn−1 = s) = eλt =⇒ independˆ ncia. s˜ o i.d. temos 1 1 E(Tn − Tn−1 ) = e Var(Tn − Tn−1 ) = 2 λ λ sendo Tn = T1 + (T2 − T1 ) + (T3 − T2 ) + . Ent˜ o N e um processo de Poisson com taxa λ se. ı ı P(X > t + s) = P(X > s) P(X > t) Valor esperado e variˆ ncia de Tn − Tn−1 a Sendo Tn − Tn−1 uma vari´ vel aleat´ ria com distribuicao exponencial de parˆ metro a o ¸˜ a λ. . e estacionariedade.t ≥ 0}. . com distribuicao a ¸˜ exponencial de parˆ metro λ. Sejam T1 . . . . + (Tn − Tn−1 ) temos E(Tn ) = n n e Var(Tn ) = 2 λ λ 24 .i. ent˜ o a o ¸˜ a P(X > t + s|X > t) = P(X > s) para quaisquer t. Alternativamente se X tem essa propriedade. T2 − T1 . T3 − T1 . tempos sucessivos de chegadas de um processo de chegada N = {Nt . a Demonstracao. . pois P(X > t + s|X > t) = e da´ ı P(X > t + s) = P(X > t)P(X > s). s ≥ 0. . e soa ´ mente se. ent˜ o X tem distribuicao expoa ¸˜ nencial. e deixamos a ¸˜ a rec´proca como exerc´cio.

Isto significa que os tempos de vidas e X1 . Logo. s˜ o os tempos das falhas sucessivas. . . Quando este falha. . .i. para uma realizacao w ∈ Ω. o tempo da n-´ sima ¸˜ e ´ falha e Tn (w). ent˜ o o tempo de vida esperado da m´ quina e a a ´ E(T3 ) = E(X1 + X2 + X3 ) = Var(T3 ) = Var(X1 + X2 + X3 ) = 3 = 15000(horas) λ 3 = 75 · 106 (horas)2 .Exemplo 11. Assumindo ¸˜ ´ ´ esse custo para todo n. n ∞ w∈Ω Estamos interessados no valor espreado do custo C(w). Se T1 . . λ2 Exemplo 13. ent˜ o $1 gasto no instante t tem um valor presente de a ´ e−αt ( α e a taxa de juros). conclu´mos que o processo de u ı ´ falhas N = {Nt . ´ Exemplo 12.10−4 temos que o tempo de vida esperado de um item e ´ 1 E(Xn ) = = 5000(horas) λ A variˆ ncia e a ´ 1 Var(Xn ) = 2 = 25. com distribucao exponencial dada ¸˜ por P(Xn ≤ t) = 1 − e−λt . e o valor presente do custo de reposicao e βe(−αTn (w)) . ou seja E(C(w)) = n=1 ∑ βE(e(−αT (w)) ) n ∞ 25 . . temos que T1 = X1 .t ≥ 0} e um processo de Poisson com taxa λ. dos sucessivos itens em uso sao i. Ent˜ o as condicoes do teorema 44 est˜ o satisfeitas pela seq¨ encia a ¸˜ a uˆ T1 .t]. Supondo que os itens do exemplo anterior s˜ o recolocados por outro a idˆ ntico t˜ o logo eles falhem. T2 = a X1 + X2 . Um item tem um tempo de vida aleat´ rio cuja distribuicao e expoo ¸˜ ´ nencial com parˆ metro λ. e imediatamente substitu´do por a ı ´ um item idˆ ntico e assim sucessivamente. Supondo que no exemplo ?? λ = 2. . temos que o valor presente do custo de todas reposicoes ¸˜ futuras e ´ C(w) = n=1 ∑ βe(−αT (w)) . T2 . e supondo que o custo de reposicao e β $ e que a e a ¸˜ ´ taxa de desconto e α > 0. onde o segundo entra a e em funcionamento imediatamente ap´ s o primeiro falhar e o terceiro logo ap´ s o o o segundo falhar.d. X2 . .. T2 .106 (horas)2 λ Supondo que numa m´ quina funcionem trˆ s desses itens. Assim se Nt e o n´ mero de falhas em [0. . . . t ≥ 0. .

. s ≤ t) = P([Nt+z − Nt = 0]c |Ns . O processo n˜ o se lembra de que se passaram ¸˜ a ´ h unidades de tempo entre as chegadas do ultimo cliente e o instante presente. podemos escrever Tn = T1 + (T2 − T1 ) + . T2 − T1 . e−α(Tn −Tn−1 ) ) = E(e−αT1 )E(e−α(T2 −T1 ) ) . logo a a o E(e−αTn ) = E(e−αT1 e−α(T2 −T1 ) . + (Tn − Tn−1 ). Tn − Tn−1 s˜ o vari´ veis aleat´ rias i.i. Demonstracao. . Vamos mostrar que a fucao distrituicao do intervalo de tempo que ¸˜ ¸˜ devemos esperar para a chegada do pr´ ximo cliente n˜ o depende de h e coincide o a com a distribuicao de Xn = Tn −Tn−1 . . E(e−α(Tn −Tn−1 ) ) = [E(e−αT1 )]n Desde que a distribuicao de T1 e exponencial com parˆ metro λ. . tem-se que P(Wt ≤ z|Ns . temos ¸˜ a ´ E(e−αT1 ) = 0 ∞ e−λt λe−λt dt = λ α+λ −1 temos E(C) = n=1 ∑β ∞ λ α+λ n =β λ λ 1− α+λ α+λ =β λ α 2.Para n fixo. s ≤ t) = 1 − P(Nt+z − Nt = 0) = 1 − eλz 26 . . .2 Tempo de Recorrˆ ncia (Forward) e ´ Observa-se uma loja no instante t e suponha que o ultimo cliente tenha chegado no instante t − h. ¸˜ [Wt ≤ z] = [TNT +1 − t ≤ z] = [TNT +1 − t ≥ z]c = [Nt+z − Nt = 0]c Portanto P(Wt ≤ z|Ns . onde T1 .d. . s ≤ t) = 1 − P(Nt+z − Nt = 0|Ns .. . Denotando o tempo de espera at´ a chegada NT + 1 por a e Wt = TNt +1 − t. Teorema 8. Se se observa um processo de Poisson no instante de tempo t onde a ultima chegada Nt ocorreu no instante TNT = t − h e a pr´ xima chegada NT + 1 o ´ ocorrer´ em TNT +1 . s ≤ t) = 1 − eλz para qualquer z ≥ 0. . . independentemente de t e de h.

basta mostrar que para qualquer intervalo de ¸˜ ´ tempo B.2.t ≥ 0} dois processos de Poisson independentes com taxas λ e µ. que e a uni˜ o de um n´ mero finito de intervalos disjuntos de compria u mento total b. respectivamente.t ≥ 0} e M = {Mt . MB = n − k) n e−λb (λb)k e−µb (µb)n−k ∑ k! (n − k)! k=0 λk µn−k e−(λ+µ)b (λ + µ)n n n n! b ∑ n n! k=0 k!(n − k)! (λ + µ) λ e−(λ+µ)b (λ + µ)n n n n! b ∑ n! k!(n − k)! λ + µ k=0 k µ λ+µ n−k e−(λ+µ)b [(λ + µ)b]n n n! ∑ k!(n − k)! pk · qn−k n! k=0 eq= µ λ+µ . n ou seja p + q = 1. ¸˜ Teorema 9. Para cada w ∈ Ω e t ≥ 0. seja Nt (w) dado por Nt (w) = Lt (w) + Mt (w) ´ O processo N = {Nt . a P(NB = n) = = = = logo P(NB = n) = onde p = λ λ+µ k=0 n ∑ P(LB = k. Pelo Teorema 6. o n´ mero de chegadas durante B tem distribuicao de Poisson com u ¸˜ parˆ metro υb. Sendo n! k=0 ∑ k!(n − k)! pk · qn−k = (p + q)n = 1 P(NB = n) = e−(λ+µ)b [(λ + µ)b]n n! e−νb (νb)n n! temos Chamando λ + µ = ν temos P(NB = n) = 27 . ´ Demonstracao.3 Superposicao de Processos de Poisson ¸˜ Seja L = {Lt .t ≥ 0} e um processo de Poisson com taxa υ = λ + µ. N = {Nt .t ≥ 0} e chamado de superposicao dos processos L e M.

. . . Nt+s = m + k + n. Os processos M = {Mt . X1 . .t] e denotado por u Mt (w) = SNt (w) ´ e o n´ mero de falhas e u Lt (w) = Nt (w) − Mt (w). . Al´ m disso o n´ mero ´ dentes. a vari´ vel aleat´ ria Nt+s − Nt e independente de K a o e u ´ de sucessos nas tentativas Nt+1 . ¸˜ u ´ e o n´ mero de sucessos obtidos em [0. SNt+s − SNt = m} ´ Al´ m disso o conhecimento do hist´ rico {Mu . Seja Sn o n´ mero de sucessos nas primeiras n-tentativas. . . e como os processos N e S s˜ o indepena ∗ . XNt } ´ Como N e um processo de Poisson. . Lt+s − Lt = k} = {Nt+s − Nt = m + k.4 Decomposicao de um Processo de Poisson ¸˜ Sejam N = {Nt . a Ent˜ o temos a P(A) = = n=0 ∞ ∑ P(Nt = n. . X2 . Sm+k+n − Sn = m) 28 . SNt+1 − SNt e independente de K ∗ .2. . e como S e N s˜ o independentes. L e M s˜ o independentes. SN ∞ t+s − SNt = m) n=0 ∑ P(Nt = n. Suponha que a n-´ sima tentativa u e ´ e realizada no instante da n-´ sima chegada Tn . X2 . Nt+s e independente da hist´ ria passada o ´ X1 . e a Demonstracao. Mostraremos que ¸˜ P(Mt+s − Mt = m.t] e Nt (w). o n´ mero de tentativas realizadas em [0. . 1.} um processo de Bernoulli independente de N com probabilidade p de sucesso. Nt+s − Nt = m + k. Lu . Teorema 10. . m = 0. seguintes e−λps (λps)m e−λqs (λqs)k m! k! e qualquer s. . u ≤ t. . XNt . Mt+s − Mt = m}. 2. .t ≥ 0.t ≥ 0} s˜ o processos de Poisson com taxas a λp e λq (q = 1 − p). Nt+2 . . .t ≥ 0} um processo de Poisson com taxa λ e {Kn . u ≤ t) = com k. escrevemos A = {Nt+s − Nt = m + k. Lu . 2. Notando a igualdade entre os eventos A = {Mt+s − Mt = m. Lt+s − Lt = k|Mu . e ´ Para uma realizacao w ∈ Ω. n = 1. Al´ m disso. . u ≤ t} e equivalente ao cone o hecimento de K ∗ = {Nu . respectivamete.

Nt+s = m + k + n)P(Sm+k+n − Sn = m) ∑ P(Nt = n.80. u e Exerc´cio 20.= = n=0 ∞ ∑ P(Nt = n. e a probabilidade de que um feminino compre alguma coisa e 0.50. Nt+s − Nt = m + k)P(Sm+k+n − Sn = m) ∞ n=0 = P(Nt+s − Nt = m + k)P(Sm+k = m) = = = e−λs (λs)m+k (m + k)! m k p q (m + k)! m!k! e−λ(p+q)s (λsp)m (λsq)k m!k! e−λps (λps)m e−λqs (λqs)k m! k! 2. Uma loja tem 3 portas. λ2 = 90. Ache o n´ mero esperado de vendas durante as 8 horas de u espedimente do dia se a probabilidade do cliente comprar e 0. ´ ´ Uma compra m´ dia e avaliada em $4. 30% dos a usu´ rios s˜ o masculino. calcule ı a) E(Nt ) e Var(Nt ) b)E(Nt+s |Nt ) o Exerc´cio 19. e ´ a)Qual o valor esperado do total de vendas feito as 10 horas do dia. b) ache P(Mt = k) para o n´ mero de prˆ mios dados no intervalo [o. Usu´ rios chegam a uma loja segundo um processo de Poisson com ı a taxa λ = 20/hora.30. ` b)Qual e a probabilidade de que o terceiro usu´ rio feminino para comprar a ´ qualquer coisa chegue durante os primeiros 15 minutos? Qual e o tempo espe´ rado de sua chegada? 29 . Uma loja promete dar um prˆ mio a todo 13¯ cliente que chegar.5 Exerc´cios ı Exerc´cio 18.t]. ´ Exerc´cio 21. λ3 = 160 usu´ rios/hora. A probabilidade de que um masculino compre alguma a a coisa e 0. A chegada em cada porta forma um proı cesso de Poisson com taxas λ1 = 110. Se ı e a chegada do cliente e um processo de Poisson com taxa λ ´ a) calcule a funcao densidade de probabilidade do tempo entre clientes premi¸˜ ados.10. Seja N um processo de Poisson com taxa λ = 2.

t ≤ 0} um processo de Poisson com taxa λ e suponha ı que em um dado t Nt = 1.Exerc´cio 22. Seja N = {Nt . Qual a distribuicao do tempo T1 em que a chegada ¸˜ ocorreu? 30 .

Sign up to vote on this title
UsefulNot useful