Professional Documents
Culture Documents
INTRODUÇÃO À
TEORIA DA CREDIBILIDADE
Fortaleza
1999
Universidade Federal do Ceará - UFC
Fortaleza
1999
OLIVEIRA, Antonio Mário Rattes de. Introdução à Teoria da Credibilidade.
Fortaleza, 1999. 202p. (Dissertação de Graduação apresentada ao
Curso de Ciências Atuariais da UFC/FEAAC).
Banca Examinadora
NOTA:
Prof. Dr.: Emílio Recamonde Capelo - Orientador
NOTA:
Prof. Dr: Luiz Ivan de Melo Castelar
NOTA:
Profa.: Iana Pinto Bezerra
Aos meus pais, pelo tempo,
carinho e compreensão
investidos e ao meu filho no
qual deposito meu amor,
carinho e esperança da
continuidade de minha obra.
AGRADECIMENTOS
Mário Rattes
Fortaleza-CE, 1999.
SUMÁRIO
1. INTRODUÇÃO E HISTÓRIA 1
1.1 Introdução 1
1.2 Paradigmas Estatísticos 1
1.3 O que é Credibilidade? 2
1.4 Três Abordagens para Credibilidade 5
2. PRELIMINARES MATEMÁTICAS 12
2.1 Teorema de Bayes 13
2.2 Exemplos do Uso do Teorema de Bayes 15
2.3 Probabilidades a Priori e a Posteriori 19
2.4 Esperança Condicional 20
2.5 Esperança Incondicional 23
2.6 Exercício 27
3. FUNÇÕES DE PERDA 35
5. A ABORDAGEM DE CREDIBILIDADE DE
FLUTUAÇÃO LIMITADA 66
5.1 Introdução 66
5.2 Pré-Requesitos Matemáticos 67
5.3 A Abordagem de Credibilidade Plena 71
6. A ABORDAGEM DE BÜHLMANN 89
6.1 Introdução 89
6.2 Elementos Básicos da Abordagem de Bühlmann 89
REFERÊNCIAS 196
LISTA DE TABELAS
TABELA 4.1 52
TABELA 4.2 54
TABELA 4.3 56
TABELA 4.4 57
TABELA 4.5 58
TABELA 4.6 59
TABELA 4.7 60
TABELA 5.1 77
TABELA 6.1 101
TABELA 6.2 103
TABELA 6.3 109
TABELA 7.1 152
TABELA 7.2 157
LISTA DE FIGURAS
FIGURA 1.1 2
FIGURA 1.2 3
FIGURA 2.1 15
FIGURA 2.2a 16
FIGURA 2.2b 16
FIGURA 6.1 92
FIGURA 6.2 92
FIGURA 6.3 94
FIGURA 6.4 94
FIGURA 6.5 99
FIGURA 6.6 103
Capítulo 1 – Introdução e História 1
CAPÍTULO 1
INTRODUÇÃO E HISTÓRIA
1.1 INTRODUÇÃO
1
Ver página 4.
Capítulo 1 – Introdução e História 2
Observações Observações
a priori Atuais
# # # # # # # #
# # # # # # # #
# # # # # # # #
# # # # # # # #
Figura 1.1
Capítulo 1 – Introdução e História 3
C = ZR + ( 1 − Z ) H , (1.1)
onde R é a média das observações atuais (por exemplo, os dados mais recentes), H
é a média a priori (por exemplo, uma estimativa baseada nos dados ou na opinião
prévia do atuário), e Z é o fator de credibilidade, que satisfaz à condição 0 ≤ Z ≤ 1 .
Nessas abordagens, a estimativa de credibilidade do verdadeiro valor é derivada
como um compromisso linear entre as observações atuais e a opinião prévia do
atuário. Graficamente vemos que o estimador de compromisso, C, está em algum
ponto do segmento de reta entre R e H, como mostrado na Figura 1.2 abaixo.
Figura 1.2
Capítulo 1 – Introdução e História 4
Exemplo Ilustrativo
1 5 8 11
2 11 13 12
P
Z= , (1.2)
P+ K
2
Ver Capítulo 8.
Capítulo 1 – Introdução e História 7
3
Ver Capítulo 5.
4
Ver Seção 4.5.
Capítulo 1 – Introdução e História 10
1.6. EXERCÍCIOS
1.1 Introdução
1-1 De acordo com Rodermund, qual tem sido a mais importante e duradoura
contribuição dos atuários não vida para a ciência atuarial?
Resposta: 7.
1-4 Usando a Equação 1.1, calcule a taxa de seguro, C, para uma particular classe
de apólices dado que i) a taxa de seguro calculada estritamente a partir da
experiência dos dados daquela classe de apólice é $100, ii) a taxa de seguro
para todas as classes combinadas é $200, e iii) o fator de credibilidade para a
classe é .40.
Resposta: 160.
CAPÍTULO 2
PRELIMINARES MATEMÁTICAS
Definição 2.1
Suponha que A e B representam eventos e que P[B]>0. Então a
probabilidade condicional de A dado B é definida como sendo
P[ A e B]
P[ A B ] = . (2.1)
P[ B]
P[ B A] ⋅ P[ A]
P[ A B] = . (2.2)
P[ B]
Demonstração
P[ A e B ]
P[ B A] = ,
P[ A]
P[ A e B] P[ B A] ⋅ P[ A]
P[ A B] = = . ∇
P[ B] P[ B]
Capítulo 2 – Preliminares Matemáticas 14
P[ A B ] = c ⋅ P[ B A] ⋅ P[ A]. (2.2a)
P[ A B ] ∝ P[ B A] ⋅ P[ A], (2.2b)
Ai I A j = 0 para i ≠ j
UA i = Ω,
i =1
P[ B] = ∑ P[B A ] ⋅ P[ A ].
i i (2.3)
i =1
Capítulo 2 – Preliminares Matemáticas 15
Demonstração
Temos
P[ B] = P[ B e Ω]
∞
= P B e U Ai
i =1
∞
∞ ∇
= P U ( B e Ai ) = ∑ P[ B e A ] i
i =1 i =1
∞
= ∑ P[B A ] ⋅ P[ A ].
i i
i =1
•B
Figura 2.1
Exemplo 2.1
X G Y
l l l
Figura 2.2a
G
X Y
l l l
S
l
Figura 2.2b
Capítulo 2 – Preliminares Matemáticas 17
Solução
Exemplo 2.2
1
Um dado é selecionado ao acaso (i.e., com probabilidade 2
) a partir de
um par de "dados honestos". Sabe-se que um dos dados, a1, tem uma face marcada
e cinco faces não marcadas e que o outro dado, a2, tem três faces marcadas e três
faces não marcadas. Seja A a variável aleatória que representa a seleção do dado.
Seja u a saída se um lance do dado selecionado produz uma face não marcada, e
seja m a saída se o resultado é uma face marcada. Então
1
Ainda que a "razão" seja provavelmente intuitiva e portanto confortável, não está completa. Para fazer o raciocínio
completo, devemos empregar uma "função de perda” (veja Capítulo 3). Em particular, se uma função de perda de
erro quadrado é escolhida, então o centro é a "melhor" estimativa porque minimiza a soma dos quadrados dos
desvios. O leitor pode desejar voltar a este exemplo após a leitura do Capítulo 3.
Capítulo 2 – Preliminares Matemáticas 18
[ ]
P U i A1 =
5
6
(2.4a)
[ ]
P U i A2 =
3
6
(2.5b)
Solução
P[U A ] ⋅ P[ A ]
[ ] [ P[U ] ] = P[U ] .
P A eU 1 1 1
P A1 U1 =
1 1
1 1
Capítulo 2 – Preliminares Matemáticas 19
5
Da Equação (2.4a), temos que P[U1|Al] = 6
. Porque cada dado é
1
escolhido com probabilidade 2
, temos que P[A1] = 12 . O valor de P[U1] é
[ ] [ [
P U1 = P A1 e U1 + P A2 e U 1 ] ]
= P[U A ] ⋅ P[ A ] + P[U A ] ⋅ P[ A ]
1 1 1 1 2 2
5 1 3 1 2
= ⋅ + ⋅ = .
6 2 6 2 3
5 1
⋅
6 2 5
[
P A1 U1 = ] 2
= .
8
3
1
No exemplo 2.2, supusemos que 2
era nossa probabilidade inicial ou a
priori (estimativa) do evento Al. A palavra "a priori" se relaciona ao fato de que
esta probabilidade foi avaliada antes da experiência de lançar o dado ter sido
executada. Depois de observar o resultado de o primeiro lance ser uma face não
5
marcada, revisamos nossa estimativa da probabilidade de Al para 8
.
Definição 2.2
Seja X uma variável aleatória discreta tal que xl ,x2. . . são os únicos
valores que X assume e com probabilidades positivas. Então, a esperança de X,
denotada por E[X], é dada por
E [ X ] = ∑ x i ⋅ P[ X = x i ]. (2.5)
i =1
2
Edwards, Lindman e Savage (1963) resumem a visão Bayesiana de Estatística como segue: “Probabilidade é opinião ordenada,
e a inferência a partir dos dados nada mais é que a revisão de tal opinião sob a luz de uma nova informação relevante.”
Capítulo 2 – Preliminares Matemáticas 21
Definição 2.3
E [ X A1 ] = ∑x
i =1
i [ ]
⋅ P X = xi A1 . (2.6)
Exemplo 2.3
1
Uma roleta é selecionada ao acaso (com probabilidade 2
) a partir de um
par de roletas. Sabe-se que (a) uma roleta, b1, tem seis setores igualmente
prováveis, cinco deles marcados com "dois" e um deles marcado com "quatorze" e
(b) uma outra roleta, b2, tem seis setores igualmente prováveis, três deles marcados
com "dois" e três deles marcados com "quatorze". Seja B uma variável aleatória
que representa a seleção de uma roleta. Façamos também
Solução
[ ] [ ]
E S1 B1 = 2 ⋅ P S1 = 2 B1 + 14 ⋅ P S1 = 14 B1 [ ]
5 1
= 2 ⋅ + 14 ⋅ = 4.
6 6
[ ] 3
6
3
E S1 B2 = 2 ⋅ + 14 ⋅ = 8.
6
Exemplo 2.4
Solução
[ ] [ ],
P S1 = 2 B1 ⋅ P B1
[
P B1 S1 = 2 = ] P[ S = 2]
1
onde P[ S1 = 2 B1 ] = [ ]
5 1
e P B1 = , e, a partir do Teorema 2.2, encontramos
6 2
[ ] [ ] [ ] [
P S1 = 2 = P S 1 = 2 B1 ⋅ P B1 + P S1 = 2 B2 ⋅ P B2 ] [ ]
5 1 1 1 2
= ⋅ + ⋅ = .
6 2 2 2 3
Capítulo 2 – Preliminares Matemáticas 23
5 1
⋅
6 2 5
[
P B1 S1 = 2 = ]
2
= .
8
3
Teorema 2.3
[
E [ X ] = ∑ E X Ai ⋅ P Ai . ] [ ] (2.7)
i =1
Demonstração
[ ]
∞
E[ X ] = ∑ x j ⋅ P X = x j . (2.5)
j =1
[ ] ∑ P[ X = x ]
∞
P X = xj = j [ ]
Ai ⋅ P Ai .
i =1
Capítulo 2 – Preliminares Matemáticas 24
[ ]
∞
E [ X ] = ∑ x j ∑ P X = x j Ai ⋅ P Ai . [ ]
j =1 i =1∞
[ ]
∞ ∞
E [ X ] = ∑ ∑ x j ⋅ P X = x j Ai ⋅ P Ai [ ]
i =1 j =1
[ ]
∞
= ∑ P[ A ] ⋅ ∑ x
i j ⋅ P X = x j Ai .
i =1
[ ] [
E [ X ] = ∑ P Ai ⋅ E X Ai . ] ∇
i =1
Exemplo 2.5
Solução
Teorema 2.4
Demonstração
E[g (Y )] = EY [g (Y )].
∞
E[g (Y )] = ∑ g ( yi ) ⋅ P[Y = y i ]
i =1
[ ] [ ]
∞ ∞
= ∑ g (yi ) ⋅ ∑ P Y = yi X = x j ⋅ P X = x j
i =1 j =1
[ ] [ ]
∞ ∞
= ∑ P X = x j ⋅ ∑ g ( y i ) ⋅P Y = y i X = x j
j =1 i =1
[ ] [ ]
∞
= ∑ P X = x j ⋅ EY g (Y ) X = x j .
j =1
Exemplo 2.6
Solução
[ ] [ [ ]]
E S12 = E B ES 1 S12 B
= ⋅ E [S B = b ] + ⋅ E [S ]
1 1
S1
2
1 1 S1 1
2
B = b2
2 2
= ( )
1 2 5
( ) 1 1
( )
1
( )
1
⋅ 2 ⋅ + 14 2 + ⋅ 2 2 ⋅ + 14 2
2 6 6 2 2 2
2.6 EXERCÍCIOS
2-l Qual é P[ A2 U 1 ] ?
3
Resposta: .
8
25
Resposta: .
34
[ ]
P A1 =
5
8
[ ]
3
[ ]
and P A2 = . Qual é P A1 U 2 neste caso?
8
25
Resposta: .
34
2-4 Uma caixa contém 4 bolas vermelhas e 6 bolas brancas. Uma amostra de
tamanho 3 é tirada, sem reposição, da caixa. Qual é a probabilidade de obter-
se 1 bola vermelha e 2 bolas brancas, dado que pelo menos 2 das bolas na
amostra são brancas?
Resposta: 0,75.
Capítulo 2 – Preliminares Matemáticas 28
5,90
Resposta: .
5,95
Resposta: 0,80.
0 0,50 0,80
1 0,30 0,15
2 0,15 0,05
3 0,05 0,00
Capítulo 2 – Preliminares Matemáticas 29
Resposta: 0,261.
r + y − 1 r
P[Y = y ] = ⋅ p ⋅ (1 − p) ,
y
(2.9)
y
manipulação algébrica.
( r + x ) + ( y − x ) − 1
[ ] [1 − (1 − d )(1 − p )]
( 1 − d ) (1 − p)
y− x x+r
Resposta: , para
y−x
Capítulo 2 – Preliminares Matemáticas 30
x = 0, 1, ... , e y = x, x + 1, ... .
0,2 y = 2,3,4,5,6
P[Y = y ] =
0 para outros casos.
Resposta:
P[Y = y | X = x]
Valor de Valor de y
x
2 3 4 5 6
5 1/4 3/4
6 1
Capítulo 2 – Preliminares Matemáticas 31
[ ]
E R12 + R22 R1 = r1 , para r1 > 0.
Resposta: r12 + 2 .
0 x<0
f ( x ) = 0,25 x = 0.
0,75 ⋅ e − x x>0
Resposta: 15.
x y f(x,y)
0 0 0,1
0 1 0,2
1 0 0,3
1 1 0,4
Capítulo 2 – Preliminares Matemáticas 32
(a) E Y [Y X = 1]
(b) E X [ X Y = 0]
4 3
Respostas: (a) (b)
7 4
6 xy + 3x 2 , 0 < x <1
f(x,y) =
0 para outros valores
3 − 2 3 2 −3 11y
Respostas: (a) 4 y 3 (b) xy + x y (c)
2 2 16
77 29
Respostas: (a) (b)
16 16
( 1 − d )(1 − p)
E [Y X = x ] = x + ( r + x) ⋅ ,
1 − (1 − d ) (1 − p )
para x = 0, 1, ... . Este resultado pode ser reexpresso da seguinte forma: dado
que x sinistros relativos às apólices de 1995 foram informados durante o ano
calendário 1995, então, o número esperado de sinistros que eventualmente
( 1 − d ) (1 − p)
serão informados em 1995 é x + ( r + x) ⋅ , para x = 0, 1, ... .
1 − (1 − d ) (1 − p)
Resposta: 0,70.
Resposta: 1,50.
Capítulo 3 – Funções de Perda 35
CAPÍTULO 3
FUNÇÕES DE PERDA
Definição 3.1
A função de perda
L( Θ , Θ$ ) = (Θ − Θ$ )
2
(3.1)
Exemplo 3-1
de Θ é
Capítulo 3 – Funções de Perda 36
0 ,5 −1≤θ≤ 1
h( Θ) =
0 para outros valores
Solução
[ ( )] ∫ (θ − Θ$ )
∞
⋅ h(θ)dθ
2
EΘ L Θ, Θ$ =
−∞
∞ 1
θ3 1
= 0,5 ⋅ ∫ θ dθ = 2
= .
−∞
6 −1
3
Exemplo 3-2
1 n
Θ = Θ x = Θ( x 1 , x 2 , K , x n ) = ∑ xi = x
$ $ ( ) $
n i= 1
Solução
[(
E Θ L Θ, Θ )Θ
]
$ x = E Θ − Θ$ ( ) 2
x
[
= E Θ (Θ − x ) x
2
]
= VarΘ ( Θ x)
= σ2 ,
1
Veja página 77.
Capítulo 3 – Funções de Perda 37
desde que x = EΘ [Θ x ].
Teorema 3.1
Demonstração
[(
EΘ Θ − Θ$ ) 2
]. (3.2)
[( ) ] ∫ (θ − Θ$ )
∞
⋅ h(θ)dθ,
2 2
E Θ Θ − Θ$ =
−∞
[( $
EΘ Θ − Θ ) ] = E [Θ − 2ΘΘ$ + Θ$ ]
2
Θ
2 2
= E [Θ ] − 2Θ$ ⋅ E [Θ] + Θ$
2 2
Θ Θ .
− 2 E Θ [Θ] + 2Θ$ = 0,
que resulta em
Θ$ = EΘ [ Θ].
Corolário 3.1
Demonstração
Definição 3.2
A função de perda
( )
L Θ , Θ$ = Θ − Θ$ (3.3.)
Exemplo 3.3
1
9 − 1≤θ≤ 8
f (θ) =
0 para outros valores.
Solução
[ ( )]
∞
$ =
E Θ L Θ, Θ ∫ θ − Θ$ ( x) ⋅ f (θ)dθ
−∞
8
1
= ∫ θ − 3 9 dθ
−1
3 −θ θ−3
3 8
−∫ dθ + ∫ dθ
−1
9 3
9
= 2 ,3.
Teorema 3.2
Demonstração
m ∞
m m
∞ ∞
m ∞
F( m) − (1 − F ( m) ) = 0,
ou
1
F( m) = .
2
Capítulo 3 – Funções de Perda 41
Corolário 3.2
Demonstração
Definição 3.3
Definição 3.3
A função de perda
c Θ$ ≠ Θ
( $ )
L Θ, Θ = $ (3.8)
0 Θ = Θ
Exemplo 3.4
Solução
[ ( )] ( )
∞
EΘ L Θ, Θ$ = ∑ L k , Θ$ ⋅ P[Θ = k ]
k =0
∞
= ∑ c ⋅ P[Θ = k ]
k=0
k≠3
e − λ λk
∞
e − λ λ3
= 4⋅∑ = 4 ⋅ 1 −
k =0 k! 3!
k ≠3
Teorema 3.3
Demonstração
[ ]
Nossa meta é minimizar EΘ L( Θ, Θ$ ) , onde L(Θ , Θ$ ) é definida pela
[ ( )]$ = E [ c] − c ⋅ P Θ = Θ$
E Θ L Θ, Θ Θ [ ]
= c − c ⋅ P Θ = Θ$ [ ]
( [
= c 1 − P Θ = Θ$ . ])
A última expressão alcança seu valor mínimo quando P[ Θ = Θ$ ] alcança
seu valor máximo. Isto acontece quando o estimador Θ$ é a moda da distribuição de
Θ . Note-se, no entanto, que a moda da distribuição de Θ não é necessariamente
única. Observe-se, ainda, que se Θ é uma variável aleatória contínua, então temos
[ [ ]]
os resultados P[ Θ = Θ$ ] = 0 e EΘ L Θ , Θ$ = c .
Capítulo 3 – Funções de Perda 43
Corolário 3.3
Demonstração
Solução
A função de perda é
(
(
$ = a Θ − Θ
L Θ, Θ ) )
$ $
Θ>Θ
( )
b Θ$ − Θ $
Θ<Θ
Exemplo 3.6
1
5.000 8.000 < θ < 13.000
h( θ) =
0 para outros valores.
Solução
[( )]
13
∫ (
$ = L θ, Θ$ ⋅ h(θ) dθ
E Θ L Θ, Θ )
8
10 13
= b∫ ( ) ∫ (
$ − θ ⋅ h( θ) dθ + a θ − Θ
Θ )
$ ⋅ h( θ) dθ
8 10
10 − θ θ − 10
10 13
ou $62.
Exemplo 3.7
Seja
0 a<Θ <b
L(Θ,δ( Θ) ) =
1 Θ ≤ a ou Θ ≥ b .
Capítulo 3 – Funções de Perda 45
Solução
−
∞
[ ]
a b
= P[Θ ≤ a] + 0 + P[Θ ≥ b]
= 1 − P[a < Θ < b]
= 1 − P[ − 1,645 < Θ < 1,645] = 1 − 0,90 = 0,10.
3
Veja página 27.
Capítulo 3 – Funções de Perda 47
3.6 EXERCÍCIOS
Resposta: 0,20
3-3 Calcule o valor esperado da função de perda erro quadrado, supondo θ$ = 0,20
(como no Exercício 3-2) e a função de densidade de probabilidade
1
9 − 1≤θ≤ 8
f (θ) =
0 para outros valores.
Resposta: 17,64.
3-4 Calcule o valor mínimo esperado da função de perda erro quadrado, dada a
função densidade de probabilidade do Exercício 3-3 e as cinco observações
0,3 ; 2,l ; 6,4 ; -0,7 e 6,9.
Resposta: 7.
Capítulo 3 – Funções de Perda 48
3-5 Usando a função de perda erro absoluto, determine o estimador pontual Θ$ que
minimiza o valor esperado da função de perda do parâmetro de interesse,
dadas as observações do Exercício 3-2. Suponha que a mediana da
distribuição a posteriori do parâmetro é igual ao seu valor da amostra.
Resposta: 0.
3-6 Calcule o valor esperado da função de perda erro absoluto sob as condições de
Exercício 3-5, usando a função de densidade de probabilidade do Exemplo
3.3. Use o resultado θ$ = 0 do Exercício 3-5.
65
Resposta: .
18
3-7 Calcule a perda esperada se (i) L(Θ , Θ$ ) é definida pela Equação (3.8) com c =
2, (ii) Θ têm uma distribuição binomial com parâmetros n = 8 e p, e (iii)
Θ$ = 4 .
[
Resposta: 2 1 − 70 p 4 (1 − p) .
4
]
3-8 Faça Θ ter a função de densidade de probabilidade do Exemplo 3.3 e a função
de perda do Exemplo 3.5 com a = 1 e b = 5. Calcule a esperança da função de
perda com Θ$ = 0 .
23
Resposta: .
6
Capítulo 3 – Funções de Perda 49
Resposta: 0,035.
100a
Resposta: O percentil da distribuição de Θ (a posteriori).
a+b
3-ll Seja a função de perda aquela do Exemplo 3.5, com a = l e b = 2. Mostre que
o estimador pontual Bayesiano, Θ$ , que minimiza o valor esperado da função
1
de perda é o percentil 33 da distribuição a posteriori de Θ . (Suponha que o
3
parâmetro Θ têm uma função de distribuição contínua.) [Sugestão: Este é um
caso especial do Exercício 3-10.)
III. É normalmente apropriado usar uma única função de perda para selecionar
o melhor dentre vários modelos estatísticos alternativos.
CAPÍTULO 4
FREQÜÊNCIA-SEVERIDADE
[ ] [ ] [ ]
P Ai e B j = P Ai ⋅ P B j
1 1 1 (4.1)
= = ,
2 2 4
[
revisadas (i.e. a posteriori) P Ai e B j X 1 conhecido o resultado do primeiro]
período de observação.
[ ] [ ] [
E X 1 = 0 ⋅ P X 1 = 0 + 2 ⋅ P X 1 = 2 + 14 ⋅ P X 1 = 14 . ] [ ] (4.2)
P[ X 1 = 0] = P[U 1 ]
[ ]
= P U1 A1 ⋅ P[ A1 ] + P U 1 A2 ⋅ P[ A2 ][ ] (4.3)
5 1 1 1 2
= + = ,
6 2 2 2 3
[
P[ X 1 = 2] = P M 1 e (S 1 = 2) ]
= P[ M 1 ] ⋅ P[S1 = 2 ]
([ ] [ ]
= P M 1 A1 ⋅ P[ A1 ] + P M 1 A2 ⋅ P[ A2 ])
× ( P[ S = 2 B ] ⋅ P[B ] + P[ S = 2 B ] ⋅ P[B ])
1 1 1 1 2 2
1 1 1 1 5 1 1 1
= + × +
6 2 2 2 6 2 2 2
2 (4.4)
= .
9
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 52
Finalmente,
[ ] [ ] [
P X 1 = 14 = 1 − P X 1 = 0 − P X 1 = 2 ]
2 2 1 (4.5)
= 1− − = .
3 9 9
TABELA 4.1
0 6/9 0
2 2/9 4/9
14 1/9 14/9
Totais 1 2
[ ] [ ] [ ]
2 2
E X 1 = ∑ ∑ E X 1 Ai e B j ⋅ P Ai e B j , (4.6)
i =1 j =1
[ ]
onde E X 1 Ai e B j é a média dos montantes de indenizações, dado o par de
eventos Ai e B j . Por seu turno, essa esperança é igual ao produto de (a) a média
do número de sinistros, e (b) a média do montante das indenizações, dado que um
sinistro acontece. Simbolicamente, isto é expresso por
[ ] [ ] [
E X 1 Ai e B j = E I 1 Ai ⋅ E S1 B j , ]
onde,
[
P Ai e B j = ] 1
4
, na Equação (4.6) acima, obtemos novamente o resultado da
[ ]
E X1 = 2 .
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 54
TABELA 4.2
A1 e B1 1/6 4 2/3
A1 e B2 1/6 8 4/3
A2 e B1 1/2 4 2
A2 e B2 1/2 8 4
Desde que (a) apenas um dado tem sido escolhido, o resultado de cada
lance daquele dado é independente dos resultados de todos os outros lances, e (b)
uma vez que uma roleta tem sido selecionada, o resultado de cada giro daquela
roleta é independente dos resultados de todos os outros giros, então a variável
aleatória X2 depende somente do resultado do primeiro período de observação
expresso pelas probabilidades conjuntas de Ai e Bj. Em outras palavras, o único
efeito é o determinado pela probabilidades revisadas do conjunto dado-roleta
[
P Ai e B j X 1 = k .]
Por analogia com a Equação (4.2), podemos escrever
[ ] [ ] [ ] [
E X 2 X 1 = k = 0 ⋅ P X 2 = 0 X 1= k + 2 ⋅ P X 2 = 2 X 1= k + 14 ⋅ P X 2 = 14 X 1= k ],
para k = 0, 2, e 14. Nossa meta é calcular a esperança condicional do montante de
indenizações (prêmio puro) para o segundo período de observação, após termos
observado uma indenização de montante igual a k durante o primeiro período de
observação. Pelas razões mostradas na seção precedente, podemos escrever
[ ] [ ] [ ]
2 2
P X 2 = m X 1 = k = ∑ ∑ P X 2 = m Ai e B j × P Ai e B j X 1 = k ,
i = 1 j =1
[ ] [
P X 2 = m Ai e B j = P X 1 = m Ai e B j ]
decorre das condições do modelo.
[
Calculamos primeiro as probabilidades P X 1 = m Ai e B j , começando ]
com m = 0. Neste caso temos
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 56
[ ] [ ] [
P X 1 = 0 Ai e B j = P X 1 = 0 Ai = P U 1 Ai . ] (4.9)
Os valores de P[U1 A1 ] = = [ ]
5 30 1 18
e P U 1 A2 = = já são conhecidos.
6 36 2 36
[ ] [ ] [
P X 1 = 2 Ai e B j = P M 1 Ai ⋅ P S1 = 2 B j , ] (4.10)
assim, esses valores podem ser calculados facilmente, como mostrado na Tabela
4.3.
TABELA 4.3
[
P X 1 = 2 Ai e B j ]
(1) (2) (3) (4)
Tipo de dado [
P M 1 Ai ] [
P S1 = 2 B j ] [
P X 1 = 2 Ai e B j ]
e roleta
(2) x (3)
TABELA 4.4
[
P X 1 = m Ai e B j ]
(1) Valor de m
e roleta
[ ]
valores de P Ai e B j X 1 = k para k = 0, 2, e 14. A partir do teorema de Bayes,
obtemos
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 58
[ ] [
P X 1 = k Ai e B j ⋅ P Ai e B j ].
[
P Ai e B j X 1 = k = ] [
P X1 = k ]
(4.11)
Posto que [ ] 1
(a) P Ai e B j = para todo i e j, (b) os valores das
4
[ ]
(c) os valores de P X 1 = k Ai e B j estão dados na Tabela 4.4, podemos facilmente
[ ]
calcular P Ai e B j X 1 = k , para k = 0, 2, e 14. Por exemplo, a Equação (4.11) produz
[
P X 1 = 14 A1 e B2 ⋅ P[ A1 e B2 ]]
[
P A1 e B2 X 1 = 14 = ] P[ X 1 = 14]
3 1
36 4 3
= = .
1 16
9
TABELA 4.5
[ ] [ ] [ ]
2 2
P X 2 = 2 X 1 = 14 = ∑ ∑ P X 2 = 2 Ai e B j ⋅ P Ai e B j X 1 = 14
i = 1 j =1
5 1 3 3
= +
36 16 36 16
15 3 9 9
+ +
36 16 36 16
35
= .
144
TABELA 4.6
[ ] [
E X 2 X1 = 2 = 2 ⋅ P X 2 = 2 X 1 = 2 ]
[
+ 14 ⋅ P X 2 = 14 X 1 = 2 ]
85 35 55
=2⋅ + 14 ⋅ = .
288 288 24
TABELA 4.7
K [
E X2 X1 = k ]
0 42/24
2 55/24
14 70/24
[
P X2 = m e X1 = k ]
[
P X 2 = m X1 = k = ] (4.12)
[ ]
.
P X1 = k
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 61
4 4 EXERCÍCIOS
[ ] [
4-1 Mostre que P X 2= m Ai e B j = P X 1= m Ai e B j . ]
[ ]
4-2 Verifique os resultados para P X 1= 14 Ai e B j mostrados na Tabela 4.4.
4-3 Calcule P[ A1 X 2 = 0 e X 1 = 0]
25
Resposta: .
34
4-4 Calcule P[ B2 X 2 = 0 e X 1 = 0]
Resposta: 0,50.
4-5 Calcule P[ A1 e B2 X 2 = 0 e X 1 = 0]
25
Resposta: .
68
4-8 Calcule E [ X 3 X 2 = 0 e X 1 = 0]
26
Resposta: .
17
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 64
56
Resposta: .
3
4-11 Usando somente as informações contidas nas tabelas 4.1 e 4.7, mostre que
E[X2] = 2. (já foi mostrado no texto que E[X1]=2).
4-12 Selecionamos uma de duas moedas com probabilidade 0,50. Uma das moeda
é honesta com um lado que tem “cara” e o outro “coroa”; a segunda moeda
tem caras em ambos os lados.
(a) Para n > 0, calcule a probabilidade que o (n+1)-ésimo lance será coroa
dado que os primeiros n lances são todos caras. [Note que uma moeda é
selecionada, sendo lançada ao longo de todo o processo, sem ser
substituída.]
2 n +1 + 1 2 n +1 + 1
Repostas: (a) n +1 (b) 1 (c) (d) 0.
2 +2 (2 n+ 1
+ 2)
2
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 65
CAPÍTULO 5
A ABORDAGEM DE CREDIBILIDADE DE
FLUTUAÇÃO LIMITADA
5.1 INTRODUÇÃO
C = ZR + ( 1 − Z ) H , (1.1)
∑ P[ N = i] = 1 (5.1)
i= 0
S = ∑ Xi (5.2)
i =1
Teorema 5.1
[ ]
E [S ] = E [ N ] ⋅ E X 1 . (5.3a)
Demonstração
S=∑Xj ,
j =1
Então,
[ ]
N
E [S ] = ∑ E X j
j= 1
N ∞ N
E [S ] = E ∑ X j = ∑ P[ N = i ] ⋅ E ∑ X j N = i
j =1 i =0 j =1
∞
i
= ∑ P[ N = i ] ⋅ E ∑ X j
i =0 j =1
[ ]
∞ i
= ∑ P[ N = i ] ⋅ ∑ E X j
i =0 j =1
∞
= ∑ P[ N = i ] ⋅ i ⋅ E[ X 1 ]
i =0
∞
= ∑ i ⋅ P[ N = i ] ⋅ E[ X 1 ]
i =0
= E[N ]⋅ E[X1 ] .
Exemplo 5.1
achar a média S = ∑ X i .
i =1
Solução
Uma vez que N é Poisson, então E[N] = Var(N) = 5. Também nos são
dados os valores E[X1] = 30 e Var(X1) = 7. Pela Equação (5.3a) temos
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 69
[ ]
E [ S ] = E[ N ] ⋅ E X 1 = ( 5)( 30) = 150 .
Teorema 5.2
[ ]
Var( Y ) = E X VarY (Y X ) + VarX ( EY [Y X ]).
Demonstração
[ ] [ [ ]]
E X VarY (Y X ) = E X E Y Y 2 X − E X ( EY [Y X ]) [ 2
]
[
= EY [Y 2 ] − E X ( EY [Y X ])
2
]
Agora somamos e subtraímos ( E Y [Y ] 2 ) no lado direito desta última
equação, obtendo
2
{ [(
E Y [Y 2 ] − ( E Y [Y ]) − E X E Y [Y X ] ) 2
] − ( E [Y ] )} Y
2
{ [(
= VarY (Y ) − E X E Y [Y X ] ) ] − ( E [ E [Y X ]])
2
X Y
2
}
= VarY (Y ) − Var X ( E [Y X ]) .
Y
[ ]
E X VarY (Y X ) = VarY ( Y ) − VarX (E Y [Y X ]) ,
que é equivalente à
[ ]
VarY ( Y ) = EY VarY (Y X ) + VarX ( EY [Y X ]) .
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 70
Teorema 5.3
(
Var( S ) = E[ N ] ⋅ Var ( X 1 ) + Var ( N ) ⋅ E [ X 1 ] ) 2
. (5.3b)
Demonstração
[ ] (
Var( S ) = E N Var( S N ) + VarN E N [ S N ] )
N N
= E N Var ∑ X i N + VarN E ∑ X i N
i =1 i= 1
[ ] (
= E N N ⋅ Var( X 1 ) + VarN N ⋅ E [ X 1 ] )
(
= E N [ N ] ⋅Var ( X 1 ) + VarN ( N ) ⋅ E[ X 1 ] )
2
.
Exemplo 5.2
Solução
( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2
ou
− cs S−s cs
P < < = 1−α . (5.4b)
Var ( S ) Var ( S ) Var ( S )
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 72
[ ]
E Xi = m (5.5a)
Var( X i ) = σ 2 , (5.5b)
[ ]
E [ S ] = E[ N ] ⋅ E X 1 = λm (5.6a)
( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2
(5.6b)
= λσ2 + λm2 = λ(σ2 + m2 ) .
aproximadamente como uma variável aleatória normal com zero média e desvio
padrão igual a 1. Então, da Equação (5.4b) temos
1
Veja, por exemplo, a página 193 de Hogg e Craig [1978].
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 73
cs
= xα ,
Var ( S )
onde x∝, é o ponto na curva normal padronizada, de tal forma que a área entre − xα
e xα , é igual a 1 − α .
cλm
= xα ,
λ(σ 2 + m2 )
λ xα
= .
σ c
2
1+
m
xα2 σ 2
λ = λF = 1 + , (5.8)
c2 m
Exemplo 5.3
Solução
1,96 σ σ 2
2 2
λF = 1 + = 42681 +
0,03 m m
Exemplo 5.4
Solução
Exemplo 5.5
Solução
σ
Como = 0 , o segundo fator do lado direito da equação (5.8) é igual a 1.
m
Então nos resta
xα2
λF = 2 (5.9a)
c
x α2
λ0 = . (5.9b)
c2
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 76
Exemplo 5.6
Solução
2 ,327
2
σ
agregado das indenizações, temos x 0 = 1,96 e − 0,894 . Então através de
m
1,96
[ ]
2
6,912
λF = 1 + (0,894) =
2
c
,
c2
6,912
= 2.165,972 ,
c2
xα2
Valores da razão λ0 = 2 , para vários pares de c e 1 − α , estão registrados
c
na Tabela 5.1. Estes valores mostram o número mínimo de sinistros esperados para
credibilidade plena baseada somente no componente freqüência de sinistro (i. e.,
ignorando a severidade de perda de reivindicações). A entrada de 1082,
correspondendo ao par de valores de parâmetro c = .05 e (1 − α) = 0,90 ,
freqüentemente é citado na literatura atuarial como o número mínimo de sinistros
esperados para credibilidade plena.
TABELA 5.1
VALORES DE λ0
ou, equivalentemente,
− cs S −s cs
P < < = 1− α . (5.10b)
Z Var ( S ) Var ( S ) Z Var ( S )
cs
= xα . (5.11)
Z Var( S )
cλm
= xα . (5.12)
Z λ(σ2 + m2 )
λ
Z= .
σ
2
xα
1+
c m
λ
Z= . (5.13)
λF
Exemplo 5.7
Solução
λ 10.000
Z= = = 0,756 .
λF 17.500
S = ZR + (1 − Z ) H
= ( 0,756 − 25.000.000) + (0,244 ⋅ 20.000.000)
= 23.780.000
2
Veja página 145.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 83
3
Veja página 409-416
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 84
5.6 EXERCÍCIOS
5. 1 Introdução
N 2
[ ]
E ∑ X j = E [ N ] ⋅ E X 12 .
j =1
N N
( ) ( [ ]
E ∑ ∑ X j X k = E[ X 1 ] ⋅ E N 2 − E[ N ] .
)
2
j =1 k =1
j ≠ k
( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2
.
Sugestão:
N
N
2
E [ S ] = E ∑ X i = E ∑ X j + ∑ ∑ X j X k .
N N
2 2
i =1 i =1 j =1 k =1
j ≠k
Resposta: 1.082.
5-5 Qual é o número mínimo requerido de sinistros esperados para o puro prêmio
para ser completamente acreditável, supondo (i) um nível de probabilidade de
90%, (ii) um parâmetro de intervalo de 5%, (iii) uma reivindicação comum
valeu de $500, e (iv) um desvio padão de custo de sinistro de $1000?
(Sugestão: Use o resultado de Exercício 5-4.)
Resposta: 5.410.
Resposta: 6.675.
Resposta: 4.
(a) Supondo que a antiga taxa teve uma provisão para custo de perda de $100
e que o custo da perda no período de observação foi $200, mostre que o
fator de credibilidade é Z = 0,25.
5-11 A Companhia de Seguro Slippery Rock está revisando suas taxas. Deseja que
o número esperado de sinistros requerido para credibilidade plena, λF , esteja
baseado no nível de probabilidade de 90% e no parâmetro de intervalo de
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 87
(b) supondo que o mais recente período de observação revelou 1.082 sinistros,
mostre que o fator de credibilidade para aquele período é Z = 0,866. (Use a
aproximação normal para a Poisson.).
CAPÍTULO 6
A ABORDAGEM DE BÜHLMANN
6.1 INTRODUÇÃO
C = ZR + ( 1 − Z ) H , (1.1)
n
Z= (6.1)
n+k
k=
valor esperado da variância de processo
próprio alvo posto a uma certa distância. Nossa tarefa é estimar o ponto no alvo
que o atirador atingirá em seu próximo tiro.
X
•
Y G W
• • •
Z
•
Figura 6.1
G
•
C W
• •
S
•
Figura 6.2
Capítulo 6 – A Abordagem de Bühlmann 93
Por outro lado, se fôssemos colocar cada centro de alvo uma distância de
meia unidade de G, como mostrado na Figura 6.3, então a distância entre as médias
hipotéticas diminuiria, e a variância das médias hipotéticas também diminuiria. Na
Figura 6.3, os alvos se sobrepõem, tornando assim mais difícil determinar a
identidade do atirador, depois de ter observado um pequeno número de tiros. Por
exemplo, se um único tiro é observado no ponto S, como mostrado em Figura 6.4,
então o atirador pode ser X ou Y. Portanto, à medida que os alvos se movem e se
aproximam a variância das médias hipotéticas diminui. No caso limite, se todos os
alvos são centrados em G, então todas as médias hipotéticas estão em G.
Capítulo 6 – A Abordagem de Bühlmann 94
X
•
G W
Y• •
•
Z•
Figura 6.3
X
•
S
•
Y
• G
•
Figura 6.4
então lançado uma só vez. Supomos que temos um sinistro com indenização de $1
se uma face marcada aparece; de outra forma não há sinistro. Há duas combinações
(ou conjuntos) de características de risco, uma correspondente a cada dado. A
1
média (hipotética) de sinistros é igual a para o dado com uma face marcada e
6
1
cinco não marcadas, e para o dado com três faces marcadas e três não marcadas.
2
1
Porque cada dado é selecionado com igual probabilidade de , o montante
2
esperado de indenização (i.e., o valor esperado da média hipotética) é
1 1 1 1 1
+ = , (6.3a)
2 6 2 2 3
1 1 1
2
1 1 1
2
1
− + − = . (6.4a)
2 6 3 2 2 3 36
[ ] [ ]
E X X A = a1 = E X A1 = 0 ⋅ P X = 0 A1 + 1 ⋅ P X = 1 A1 [ ] [ ]
1 1
= 0+ =
6 6
[ ] [ ]
E X X A = a 2 = E X A2 = 0 ⋅ P X = 0 A2 + 1⋅ P X = 1 A2 [ ] [ ]
1 1
= 0+ = .
2 2
Uma vez que cada dado é selecionado com igual probabilidade, então,
[ ]
E [ X ] = E X [ X ] = E A E X [ X A]
= ∑ P[ A ] ⋅ E [ X A ]
2
i X i
i= 1
= P[ A ] ⋅ E [ X A ] + P[ A ] ⋅ E [ X A ]
1 X 1 2 X 2
1 1 1 1 1 (6.3b)
= + = .
2 6 2 2 3
VarA ( E X [ X A]) = ∑ P[ A ] ⋅ {E [ X A ] − E [ X ]}
2
2
i X i X
i =1
1
2
= P[ A1 ] ⋅ E X [ X A1 ] −
3
1
2
+ P[ A2 ] ⋅ E X [ X A2 ] −
3
2 2 (6.4b)
11 1 1 1 1 1
= − + − = ,
26 3
2 2 3 36
1 2 14
2
4
2
− + − + ( 2 − 2) + ( 4 − 2 ) =
2 2
2
3
2
. (6.5)
4 3 9
X
•
Y G W
• • •
Z
•
Figura 6.5
1 5 5
npq = (1) = .
6 6 36
1 1 1
npq = (1) = .
2 2 4
Capítulo 6 – A Abordagem de Bühlmann 100
1
Posto que cada dado é selecionado com probabilidade , o valor
2
esperado da variância de processo é
1 5 1 1 7
+ = . (6.6a)
2 36 2 4 36
[ ]
E A VarX ( X A) = ∑ P[ Ai ] ⋅ VarX ( X Ai )
2
i =1
( ) 1 5
Var I 1 A1 = =
5
6 6 36
(6.7a)
( ) 3 3 1
Var I 1 A2 = =
6 6 4
. (6.7b)
( ) ( [ ]) ⋅ P[ S = 2 B ]
2
Var S 1 B j = 2 − E S1 B j 1 j
+ ( 14 − E [ S B ]) ⋅ P[ S = 14 B ] .
2
1 j 1 j
( ) 2 5 2 1
Var S 1 B1 = ( 2 − 4 ) + ( 14 − 4) = 20 ,
6 6
(6.8a)
( ) 2 3 2 3
Var S 1 B2 = ( 2 − 8) + ( 14 − 8) = 36 ,
6 6
(6.8b)
mostradas na coluna (5), como também as grandezas da coluna (6), são obtidas a
partir da coluna (3) da Tabela 4.2.
Finalmente, usando a Equação (5.3b), dada pelo Teorema 5.3,
calculamos as variâncias de processo mostradas na coluna (7), como
[ ] ( ) ( )( [ ])
2
E I 1 Ai ⋅Var S1 B j + Var I 1 Ai ⋅ E S1 B j .
TABELA 6.1
VARIÂNCIA DE PROCESSO DO EXEMPLO DO DADO-ROLETA
Frequência Severidade
(1) (2) (3) (4) (5) (6) (7)
Probabilidade do Média ao
Tipo de Média Variância Variância (3)(5)+(4)(6)
Quadrado
( ) ( E [ S B ])
Dado-Roleta
Dado e
Roleta [
P Ai B j ] [
E I 1 Ai ] (
Var I 1 Ai ) Var S1 B j
1 j
2
Variância de
Processo
A1 B1 1 1 5 50
20 16
4 6 36 9
A1 B2 1 1 5 134
36 64
4 6 36 9
A2 B1 1 1 1
20 16 14
4 2 4
A2 B2 1 1 1
36 64 34
4 2 4
Capítulo 6 – A Abordagem de Bühlmann 102
1 50 134 154
+ + 14 + 34 = . (6.9)
4 9 9 9
154 / 9
k= = 11
14 / 9
n 1 1
Z= = = .
n + k 1 + 11 12
1 11
C = ZR + ( 1 − Z ) H = ( 14) + ( 2) = 3 .
12 12
Capítulo 6 – A Abordagem de Bühlmann 103
TABELA 6.2
ESTIMATIVAS DE CREDIBILIDADE
DE BÜHLMANN
0 11 / 6
2 2
14 3
•
1 R
2 4 6 8 10 12 14
Figura 6.6
Capítulo 6 – A Abordagem de Bühlmann 104
Exemplo 6.1
Solução
de Θ são
θ2
1 1
1
E [Θ] = ∫ θ ⋅ f (θ) dθ = =
0
2 0
2
θ3
1 1
E [Θ ] = ∫ θ ⋅ f ( θ) dθ =
1
2 2
= .
0
3 0
3
[ ] 1
E Θ VarN [ N Θ] = EΘ [Θ] = .
2
Então
n 1 1
Z= = = .
n + k 1+ 6 7
1 6
C = ZR + ( 1 − Z ) H = ( 1) + (0,50) = 0,571 .
7 7
n
Passo 5: Calcule o fator de credibilidade, Z = .
n+k
(2) uma vez que Z é uma função decrescente de k, Z é também uma função
decrescente do valor esperado da variância de processo, com um limite
inferior em zero. Assim, quanto maior for a variação associada com as
combinações individuais de características de risco, tanto menor será o
peso dado às observações atuais, R, e tanto maior peso dado à média a
priori, H.
Exemplo 6.2
Solução
[ ]
E X [ X ] = E M E X [X M] = E M [ M ] =
r
a
,
VarM (E X [ X M ]) = VarM ( M ) =
r
.
a2
[ ] q
EV VarX ( X V ) = EV [V ] = .
b
Então, temos
Exemplo 6.3
Supõe-se, ainda, que a severidade segue a distribuição discreta B1 , 40% das vezes,
e a distribuição discreta B2 , 60% das vezes, onde as distribuições discretas B1 e B2
estão definidas como segue:
Probabilidades da
Severidade Severidade
B1 B2
5 1
2
6 2
1 1
14
6 2
Capítulo 6 – A Abordagem de Bühlmann 109
Solução
TABELA 6.3
( Λ, B )
1
Λ Λ 20 16 36Λ
(Λ, B )
2
Λ Λ 36 64 100Λ
1
0,06 0,07 < λ < 0,13
f ( λ) =
0 para outros valores ,
então
0 ,13
λ λ2
0 ,13
E [Λ ] = ∫ dλ = = 0,10 , e
0 , 07
0,06 ( 2) ( 0,06) 0 ,07
0 ,13
λ2 λ3
0 ,13
E [Λ ] = ∫
2
dλ = = 0,0103 .
0 , 07
0,06 ( 3) ( 0,06) 0 ,07
(Λ, B ) ,
2 respectivamente. Portanto, o valor esperado dos quadrados das médias
hipotéticas é
Capítulo 6 – A Abordagem de Bühlmann 111
conduzindo a
7,44
k= = 143,52 ,
0,05184
n 3
Z= = = 0,02 .
n + k 3 + 143,52
[ ]
Var( Y ) = E X VarY (Y X ) + Var X (E Y [Y X ]) (6.10)
Exemplo 6.4
Solução
( ) [ ]
VarN i N i Λ i = E N i N i Λ i = Λ i ,
[ ( ) ( [
Var( N i ) = E Λ i Var Ni Λ i + VarΛ i E Ni N i Λ i ]) ]
[ ]
= E Λ i Λ i + VarΛi (Λ i ) = µ + σ 2 .
Definição 6.1
[
P ( X 1 ≤ x1 ) ∩ ( X 2 ≤ x 2 )∩K∩( X n ≤ x n ) ]
= P[ X 1 ≤ x1 ] ⋅ P[ X 2 ≤ x 2 ]⋅K⋅ P[ X n ≤ x n ] .
Definição 6.2
[
P ( X 1 ≤ x1 ) ∩ ( X 2 ≤ x2 )∩K∩( X n ≤ xn ) Θ ]
[ ] [ ] [
= P X 1 ≤ x1 Θ ⋅ P X 2 ≤ x 2 Θ ⋅K⋅ P X n ≤ x n Θ . ]
6.6.1 Abordagem Geral
[
µ(Θ i ) = E X ij Θ ]
e
(
ν(Θ i ) = Var X i Θ i . )
Então,
[
µ = E µ(Θ i ) ]
representa a média global hipotética
[
ν = E ν(Θ i ) ]
representa a variância das médias hipotéticas, e
(
a = Var µ(Θi ) )
1 r 1 r n
µ$ = x = ∑ x = ∑∑ x ,
r i =1 i rn i =1 j =1 ij
(6.11)
Capítulo 6 – A Abordagem de Bühlmann 116
1 n
onde, x i = ∑x ,
n j =1 ij
1 r
( )
r n
1
∑ ∑ ∑ x − xi
2
ν$ = ν$ = , (6.12)
r i =1 i r( n − 1) i =1 j =1 ij
1 n
(
∑ x − xi )
2
onde, ν$i = ,e
n − 1 j = `` ij
ν$
a$ =
1 r
∑
r − 1 i =1
( xi − x ) −
2
n
(6.13)
1 r
( ) ( )
r n
1
∑ ∑ ∑ x − xi
2 2
= x − x − .
r − 1 i =1 i rn( n − 1) i =1 j =1 ij
$ i + (1 − Z$ )µ$ ,
C = Zx
para i = 1, 2, ..., r. É possível, como mostrado no Exercício 6-19, que a$ possa ser
negativo, um resultado indesejável, considerando-se que as variâncias devem, é
claro, ser não negativas. O procedimento acima é ilustrado no seguinte exemplo.
1
Usamos µ $ , ν$ e a$ para representar ambos, os estimadores e suas realizações. Esperamos que o leitor possa
facilmente distinguí-los, de acordo com o contexto.
Capítulo 6 – A Abordagem de Bühlmann 117
Exemplo 6.5
1 5 8 11
2 11 13 12
Solução
1 n 5 + 8 + 11
x1 = ∑
n j =1
x1 j =
3
=8
e
Capítulo 6 – A Abordagem de Bühlmann 118
1 n 11 + 13 + 12
x2 = ∑
n j =1
x2 j =
3
= 12 ,
1 r 8 + 12
µ$ = x = ∑
r i =1
xi =
2
= 10 .
1 n
(
∑ x − x1 ) 1
[ ]
(5 − 8) 2 + (8 − 8) 2 + (11 − 8) 2 = 9
2
v$1 = =
n − 1 j =1 1 j 2
v$ 2 =
1 n
(
∑ x − x2
n − 1 j =1 2 j
) 2
=
1
2
[
(11 − 12) 2 + (13 − 12 ) 2 + (12 − 12) 2 = 1 , ]
então, a estimativa da variância de processo esperada é
1 r 1
v$ = ∑ v$i = ( 9 + 1) = 5 .
r i =1 2
v$
( xi − x ) −
1 r
∑
2
a$ =
r − 1 i =1 n
1
1
[
= ( 8 − 10) + ( 12 − 10) − =
2 2 5 19
3 3
] .
Então, temos
v$ 5
k$ = = = 0,78497 .
a$ 19 / 3
Capítulo 6 – A Abordagem de Bühlmann 119
n 3
Z$ = $ = = 0,79167 .
n + k 3 + 0,78947
respectivamente.
[ ] [ ]
µ = E[µ( Θ) ] = EΘ E [ N Θ] = E Θ Var ( N Θ) = E Θ [ v( Θ) ] = v .
(2) Os dados disponíveis sobre cada risco individual são então usados
para calcular a variância total da amostra, que é usada como a
estimativa da variância total.
Exemplo 6.6
Número de Perdas: 0 1 2 3 4 5
Solução
Isto é o valor esperado (estimado) das médias dos 300 riscos individuais.
Sob a distribuição de Poisson, as variâncias dos riscos individuais são iguais as
suas médias, assim
Valor Esperado Estimado = Valor Esperado Estimado das Variâncias de Risco Individuais
da Variância de Processo
= Valor Esperado Estimado de Médias Individuais
= 1,0 .
Capítulo 6 – A Abordagem de Bühlmann 122
( 1) 2 ( 97) + ( 2) 2 ( 49 ) + ( 3) 2 ( 21) + ( 4 ) 2 ( 8) + ( 5) 2 ( 2)
= 2,2 .
300
A variância total das perdas é estimada como sendo 2,2 - (1,0)2 = 1,2.
Então, através da Equação (6.10), a variância das médias hipotéticas pode ser
calculada como
conduzindo a
1,0
k= =5 .
0,2
Exemplo 6-7
1
Uma urna é selecionada ao acaso (i.e., com probabilidade ) e quatro
4
bolas são selecionadas dessa urna, com reposição. O total dos valores é 2. Mais
quatro bolas são selecionadas da mesma urna. Calcule o valor total esperado para o
segundo conjunto de quatro bolas usando a fórmula de credibilidade de Bühlmann.
Solução
[ ]
1
( 4) (0,7)(0,3) + ( 4) (0,7)( 0,3) + ( 4) ( 0,3)( 0,7) + ( 4) ( 0,2)( 0,8) = 0,79 .
4
[ ]
1
( 4) (0,3) + ( 4) (0,3) + ( 4) (0,7) + ( 4) (0,8) = 2 ,10 .
4
1
4 [[
( 4 )( 0,3) ] + [( 4)(0,3)] + [( 4)( 0,7) ] + [(4 )( 0,8)] ] = 5,24
2 2 2 2
.
Então, temos
Capítulo 6 – A Abordagem de Bühlmann 124
0,79
k= = 0,95
0,83
n 1
Z= = = 0,513 .
n + k 1 + 0,95
Exemplo 6.8
Solução
[ ]
1
( 0,7)( 0,3) + (0,7)(0,3) + ( 0,3)( 0,7 ) + (0,2)(0,8) = 0,1975 ,
4
1
( 0,3 + 0,3 + 0,7 + 0,8) = 0,525 .
4
1
4
( )
(0,3) 2 + ( 0,3) 2 + (0,7) 2 + ( 0,8) 2 = 0,3275 .
Então, temos
0,1975
k= = 3,8072
0,051875
n 4
Z= = = 0,513 .
n + k 4 + 3,8072
(Note que aqui n = 4 porque só uma bola é tirada durante cada um dos quatro
períodos individuais de observação. As quatro bolas correspondem a quatro
períodos de observação.) Finalmente, a estimativa de compromisso de Bühlmann é
Teorema 6.1
Demonstração
1 1
=
1+
[ (
EΘ Var X 1 + X 2 +K+ X n Θ )]
1+
[ ( )]
E Θ n ⋅ Var X 1 Θ
([
VarΘ E X 1 + X 2 +K+ X n Θ]) Var ( n ⋅ E [ X Θ])
Θ 1
1
=
1+
[ (
n ⋅ EΘ Var X 1 Θ )]
n2 ⋅ Var ( E[ X Θ])
Θ 1
n
=
n+
[ (
E Θ Var X 1 Θ)]
Var ( E [ X Θ])
Θ 1
2
Veja Capítulo 4.
Capítulo 6 – A Abordagem de Bühlmann 128
6.9 EXERCÍCIOS
6.1 Introdução
2
Resposta: .
3
[ ]
E X 3 X 2 = R , para R = 0, 2, e 14.
49 57 105
Respostas: ; ; .
32 32 32
6-3 Duas urnas contêm bolas marcadas com 0, 1, ou 2, nas proporções seguintes :
B 70 20 10
Capítulo 6 – A Abordagem de Bühlmann 129
1
Uma urna é selecionada ao acaso com probabilidade e duas bolas são
2
extraídas dessa urna, com reposição. A soma das marcas nas duas bolas é 2.
Duas bolas adicionais são tiradas, com reposição, da urna selecionada.
Usando a abordagem de credibilidade de Bühlmann com n = 1, determine o
seguinte.
(c) O valor de k.
1,00
Respostas: (a) 0,64 (b) 1,00 (c) (d) 0,39 (e) 1,756.
0,64
(c) O valor de k.
230 7
Respostas: (a) 196 (b) 6.440 (c) (d) .
7 237
Resposta: 5,14.
6-6 Cada indivíduo dentro de uma classe homogênea de segurados tem uma
distribuição de Poisson com uma média constante de 0,10. Sob a abordagem
de Bühlmann, qual é o fator de credibilidade a ser atribuído à experiência de
Capítulo 6 – A Abordagem de Bühlmann 131
Resposta: 0.
6(θ − θ 2 ) 0 <θ<1
g (θ) =
0 para outros casos .
3
Resposta: .
7
6-8 Você é informado de que (i) Xl, X2, ... , Xn são variáveis aleatórias mutuamente
independentes e identicamente distribuídas com média M e variância V, (ii) M
tem média 2 e variância 4, e (iii) V tem média 8 e variância 32. Determine o
valor do fator de credibilidade de Bühlmann depois de observar as obtenções
das primeiras três variáveis Xl, X2 e X3.
Resposta: 0,60.
Capítulo 6 – A Abordagem de Bühlmann 132
6-9 Escolha exatamente uma das palavras ou valores nos parênteses em cada das
seguintes sentenças:
6-10 O número de sinistros por ano de apólice para um único risco tem uma
distribuição de Poisson com parâmetro A. Por sua vez, A tem uma distribuição
gama a priori com função de densidade g ( a ) = a ⋅ e − a , para 0 < a < ∞ .
Determine o fator de credibilidade de Bühlmann a ser atribuído a uma única
observação.
1
Resposta: .
2
6-ll O número de sinistros por ano de apólice para um segurado individual tem
uma distribuição de Poisson com parâmetro A. A distribuição a priori de A é a
Capítulo 6 – A Abordagem de Bühlmann 133
13
Resposta: .
7
Montante de Indenizações
Distribuição
da Severidade $5 $10 $20
(c) O valor de k.
1
Respostas: (a) 0,03 (b) 11,97 (c) 399 (d) .
400
6-13 O número de sinistros, Ni, durante o i-ésimo ano de apólice, para um segurado
individual, tem uma distribuição de Poisson. A freqüência esperada de
sinistros anual da população inteira de segurados é uniformemente distribuída
no intervalo ( 0 , l ). A freqüência de sinistros de um indivíduo é constante ao
longo do tempo. Um particular segurado apresentou um total de três sinistros
durante os três primeiros anos da apólice, de forma que Nl + N2 + N3 = 3.
Usando o modelo de credibilidade de Bühlmann, estime a freqüência anual de
sinistros esperada para o quarto ano de apólice.
2
Resposta: .
3
Resposta: 10,70.
[ ]
hipotéticas dado que Var( Y ) = 8 e E X Vary (Y X ) = 3 .
Capítulo 6 – A Abordagem de Bühlmann 135
Resposta: 5.
6-16 Seja E[X] o valor esperado da variável aleatória X e g(Y) uma função da
variável aleatória Y para a qual E[Y] existe. Quais das seguintes declarações
são verdadeiras?
I - E [ X ] = E Y [ E ( X Y )]
[ [
III - E [g( Y ) ] = EY E X g ( y) X ]]
Respostas: As declarações I e II são verdadeiras.
6-17 Um grupo de 340 segurados em uma área de alta criminalidade sofre 210
roubos durante um período de um ano de observação, conforme a seguinte
tabela.
1 80
2 50
3 10
Supõe-se que, para cada segurado, o número de roubos segue uma distribuição
de Poisson, mas a média de cada distribuição pode variar entre os segurados.
Capítulo 6 – A Abordagem de Bühlmann 136
(d) O valor de k.
(d) O valor de k.
6-19 Uma companhia de seguro tem dois grupo de apólices de seguro de acidente
de trabalho. Os montantes agregados de indenizações (em milhões de
unidades monetárias) durante os primeiros três anos da apólice estão
resumidos na Tabela abaixo. Use o modelo de Bühlmann para tentar estimar
o montante agregado de indenizações durante o quarto ano da apólice para
cada um dos dois grupos de apólices. Não faça qualquer suposição sobre a
distribuição de probabilidade dos montantes agregados de indenizações. Não
suponha qualquer inflação. Mostre que para a$ < 0 o procedimento fica
inviabilizado.
Capítulo 6 – A Abordagem de Bühlmann 138
1 5 8 11
2 2 8 14
6-20 Uma companhia de seguro tem dois grupos de apólices de seguro de acidente
de trabalho. Os montantes agregados de indenizações (em milhões de
unidades monetárias) para os primeiros quatro anos da apólice estão
resumidos na tabela abaixo. Use o modelo de Bühlmann para estimar o
montante agregado de indenizações durante o quinto ano da apólice para cada
um dos dois grupos de apólices. Não faça suposições sobre a distribuição de
probabilidade dos montantes agregados de indenizações. Não suponha
inflação.
1 4 10 8 6
2 12 14 13 13
263 457
Respostas: ; .
36 36
Capítulo 6 – A Abordagem de Bühlmann 139
6-21 Três urnas, contêm cada uma bolas marcadas com 0 ou l, nas seguintes
proporções:
A 10% 90%
B 60 40
C 80 20
1
Uma urna é selecionada ao acaso com probabilidade , e três bolas são
3
extraídas, com reposição, da urna selecionada. O total dos números nas três
bolas é l. Três bolas adicionais são extraídas, com reposição, da urna
selecionada. Usando o modelo de credibilidade de Bühlmann com n = 1,
estime o total esperado dos números nas três bolas. Recalcule o total esperado
dos números usando n = 3. De acordo com o Teorema 6.1, os resultados
devem ser os mesmos.
Resposta: 1,193.
Resposta: 1,756.
1
6-23 Um de três dados de multi-face é selecionado ao acaso, com probabilidade .
3
Um dado tem quatro lados (numerados 1, 2, 3, e 4), o segundo dado tem os
seis lados habituais (numerados 1,2. . . ,6), e o terceiro dado tem oito lados
Capítulo 6 – A Abordagem de Bühlmann 140
(numerados 1, 2, ... , 8). Cada dado é honesto, de forma que cada lado tem
uma chance igual de ser sorteado. O dado selecionado é jogado uma vez, o
resultado é observado, após o que o dado é jogado uma segunda vez.
Desejamos estimar o resultado da segunda jogada.
1127
. 1
Respostas: (a) (b) , para i = 1, 2, ..., 8 (c) 4,5 (d) 4,5
274 8
2
(e) 5 ; 6 (f) 8.
3
Capítulo 7 – Modelo de Bühlmann-Straub 141
CAPÍTULO 7
MODELO DE BÜHLMANN-STRAUB
7.1 INTRODUÇÃO
[ ]
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n . Usamos as seguintes premissas para esta versão
do modelo de Bühlmann-Straub:
Capítulo 7 – Modelo de Bühlmann-Straub 142
(2) Dado Θ , as variáveis aleatórias Xl, X2, ..., Xn+l são condicionalmente
independentes e identicamente distribuídas.
Essas suposições implicam que as variáveis aleatórias Xl, X2, ..., Xn+l, são
identicamente distribuídas. Note, entretanto, que elas não são necessariamente
independentes incondicionalmente.
[
µ( Θ) = E X j Θ ]
e
(
ν(Θ) = m j ⋅ Var X j Θ ,)
para j = l, 2, ... , n + l, onde mj é uma constante conhecida representando o
montante de exposição durante o j-ésimo período de observação. Supomos que nem
µ( Θ) e nem ν( Θ) dependem do período de observação j. Definimos
m = ∑ mj .
j =1
(Recorde que, no Capítulo 6, foi requerido que todos os pesos, mj, fossem iguais.)
Uma outra diferença entre o modelo do Capítulo 6 e o modelo de Bühlmann-Straub
é que neste os Xj representam a média dos montantes de indenização por unidade de
Capítulo 7 – Modelo de Bühlmann-Straub 143
[ ]
E X n + 1 X 1 = x1 , X 2 = x 2 , K , X n = x n , a expectância condicional de Xn+l, dadas as
realizações Xl = xl, X2 = x2, ... , Xn = xn, uma vez que E[ X n+1 Θ] = µ( Θ) . Como no
modelo de Bühlmann, escolhemos um estimador linear da expectância condicional
de µ( Θ) , da forma
a 0 + a 1 X 1 + a 2 X 2 +K+a n X n .
[
E ( µ(Θ) − a 0 − a 1 X 1 − a 2 X 2 −K− a n X n )
2
].
(7.1)
a 0 = (1 − Z ) ⋅ E[ µ(Θ)] ,
onde
Capítulo 7 – Modelo de Bühlmann-Straub 144
Z=
∑m j
=
m
,
∑ m + E[ν(Θ)] / Var( µ( Θ)) m + ν / a
j
mj
aj =
∑m j + E[ν( Θ)] / Var( µ(Θ))
Z ⋅ X + (1 − Z ) ⋅ E[ µ(Θ)] , (7.2)
onde
∑m X
X=
j j
∑m j
7.2.2 Exemplos
Exemplo 7.1
Solução
C1 Y1 + Y2 + Y3 + Y4
X1 = =
4 4
C2 Y5 + Y6 + Y7 + Y8 + Y9
X2 = = .
5 5
C1 2 1
segue que X 1 = = = . Buscamos a estimativa de Bühlmann-Straub de
m1 4 2
[ ]
E C2 C1 = 2 , ou, equivalentemente,
1 1
E m2 X 2 X 1 = = m2 ⋅ E X 2 X 1 = .
2 2
[[ ]] [
0,525 = µ = EΘ [ µ(Θ) ] = EΘ E X j Θ = EΘ E[Y Θ] , ]
( [ ])
0,051875 = Var ( µ(Θ)) = VarΘ E Yi Θ
[ ( )]
0,1975 = E Θ [ν( Θ)] = EΘ Var Yi Θ ,
1
compromisso de Bühlmann-Straub para E X 2 X 1 = , ou seja
2
( 5) ( 0,51225) = 2,56125 .
Exemplo 7.2
Solução
1 3
4 + 5
m X + m2 X 2 2 5 5
R= 1 1 = = ,
m 9 9
Capítulo 7 – Modelo de Bühlmann-Straub 148
m 9
Z= = = 0,7027 ,
m + k 9 + 3,8072
5
ZR + ( 1 − Z ) µ = ( 0,7027) + ( 0,2973)( 0,525) = 0,5465 .
9
( 6) ( 0,5465) = 3,279 .
(1) Supõe-se que os vetores aleatórios Xl, X2, ... , Xr são mutuamente
independentes. Em outras palavras, a experiência de um segurado não
influencia a experiência de um outro diferente segurado.
[
µ(Θ i ) = E X ij Θ i ]
e
(
ν(Θ i ) = mij ⋅ Var X ij Θ i ),
Capítulo 7 – Modelo de Bühlmann-Straub 150
para i = 1, 2, ... , r e j = 1, 2, ..., ni . Como na Seção 7.2.1, supomos que nem µ(Θ i )
ni
mi = ∑ mij
j =1
m = ∑ mi
i= 1
Lembre-se que a suposição (5) do modelo da Seção 6.6.1 exigiu que mij =
1 para todo o i e j. Assim, as suposições desta seção são menos restritivas do que as
da Seção 6.6.1. Então, os estimadores da média hipotética ( µ) , da variância de
processo esperada ( ν) , e da variância das médias hipotéticas ( a) são,
respectivamente,
1 r 1 r ni
µ=
$ X= ∑ m X = ∑∑ m X ,
m i =1 i i m i =1 j = 1 ij ij
(7.3)
onde
ni
1
Xi =
mi
∑m ij X ij ,
j =1
∑ ∑ m (X )
r ni
2
ij ij − Xi
i =1 j = 1
ν$ = (7.4)
∑(n − 1)
r
i
i =1
Capítulo 7 – Modelo de Bühlmann-Straub 151
−1
r
a$ = m − ∑ mi2 ∑ mi ( X i − X ) − ν$ (r − 1) ,
1 r 2
(7.5)
m i = 1 i =1
ν$
O estimator de k é, então, k$ = , e o estimador do fator de credibilidade para o i-
a$
ésimo segurado, Zi, é
ni
Z$ i = .
n i + k$
X$ i = Z$ i X i + (1 − Z$ i ) µ$ , (7.6)
C$ i = mi , n i +1 ⋅ X$ i ,
para i = l, 2, ..., r.
7.3.2 Exemplos
Exemplo 7.3
TABELA 7.1
Tamanho do 40 50 70 75
grupo
Solução
Para o segurado 1, as medidas de exposição são mll = 40, ml2 = 50, m13 =
70, e ml4 = 75, de forma que
m1 = ∑ m1 j = 40 + 50 + 70 = 160
j =1
8000
x11 = = 200 ,
40
11000
x 12 = = 220 ,
50
15000
x 13 = = 214 ,29 .
70
Então
1 3
8.000 + 11.000 + 15.000
x1 =
m1
∑m 1j x 1j =
160
= 212,50 .
j= 1
20.000
x 21 = = 200 ,
100
24.000
x 22 = = 200 ,
120
19.000
x 23 = = 165,22 .
115
Então,
1 3
20.000 + 24.000 + 19.000
x2 =
m2
∑m 2j x2 j =
335
= 188,06 .
j =1
1 2
µ=
$ x= ∑m x
m i =1 i i
=
1
495
[(160)(212,50) + ( 335)(188,06)] = 195,96 .
∑ ∑ m (x )
2 3
2
ij ij − xi
i =1 j = 1
ν$ = 2
∑ ( 3 − 1)
i= 1
Capítulo 7 – Modelo de Bühlmann-Straub 155
( 40)( 200 − 212 ,5) 2 + ( 50) ( 220 − 212,5) 2 + ( 70) ( 214,29 − 212,5) 2 +
+ ( 100) ( 200 − 188,06) + ( 120)( 200 − 188,06) + ( 115) (165,22 − 188,06)
2 2 2
=
2+ 2
= 25160
. ,58 .
−1
2
a$ = m − ∑ mi2 ∑ mi ( x i − x ) − ν$( r − 1)
1 2 2
m i =1 i =1
(160)( 212,5 − 195,96) 2 +
−1
= 495 −
1
495
[ ]
(160) 2 + ( 335) 2 ( 335)(188,06 − 195,96) 2 −
( 25160
. ,58)(1)
= 182,48 .
Então, a estimativa de k é
ν$ 25160
. ,58
k$ = = = 137,88 ,
a$ 182,48
m1 160
Z$1 = = = 0,537
m1 + k$ 160 + 137 ,88
m2 335
Z$ 2 = = = 0,708 .
m2 + k$ 335 + 137,88
Capítulo 7 – Modelo de Bühlmann-Straub 156
x$1 = Z$ 1 x1 + (1 − Z$ 1 ) µ$
( )
x$ 2 = Z$ 2 x 2 + 1 − Z$ 2 µ$
Exemplo 7.4
Calcule o montante agregado de indenizações estimado a ser observado
durante o quarto ano de apólice em cada um dos dois grupos cujas experiências
para os três primeiros anos de apólice estão apresentadas na Tabela 7.2, abaixo.
(Note que este exemplo é idêntico ao Exemplo 7.3, exceto que os dados do
segurado 1 não estão disponíeis para o ano 1 da apólice.)
Capítulo 7 – Modelo de Bühlmann-Straub 157
TABELA 7.2
Tamanho do - 50 70 75
grupo
Solução
m1 = ∑ m1 j = 50 + 70 = 120
j =1
11.000
x11 = = 220
50
15.000
x 12 = = 214 ,29 .
70
Então
1 2
11.000 + 15.000
x1 =
m1
∑m 1j x 1j =
120
= 216,67 .
j= 1
20.000
x 21 = = 200
100
24.000
x 22 = = 200
120
19.000
x 23 = = 165,22 .
115
1 3
20.000 + 24.000 + 19.000
x2 =
m2
∑m 2j x2 j =
335
= 188,06 .
j =1
Capítulo 7 – Modelo de Bühlmann-Straub 159
1 2
µ=
$ x= ∑m x
m i= 1 i i
=
1
455
[(120)(216,67) + ( 335)(188,06)] = 195,61 .
∑ ∑ m (x )
2 ni
2
ij ij − xi
i =1 j = 1
ν$ =
∑ (n − 1)
2
i
i =1
+ (115)(165,22 − 188,06)
2
=
1+ 2
= 30.768,83
−1
1 2 2
a$ = m − ∑ mi2 ∑ mi ( x i − x ) − ν$( r − 1)
2
m i =1 i =1
Capítulo 7 – Modelo de Bühlmann-Straub 160
= 235,14 .
Então, a estimativa de k é
ν$ 30.768,83
k$ = = = 130,85 .
a$ 235,14
m1 120
Z$1 = = = 0, 478
m1 + k$ 120 + 130,85
m2 335
Z$ 2 = = = 0,719 .
m2 + k$ 335 + 130,85
x$1 = Z$ 1 x1 + (1 − Z$ 1 ) µ$
= ( 0,478)( 216,67) + ( 0,522)(195,61) = 205,68
( )
x$ 2 = Z$ 2 x 2 + 1 − Z$ 2 µ$
= ( 0,719 )(188,06) + ( 0,281)(195,61) = 190,18 .
Capítulo 7 – Modelo de Bühlmann-Straub 161
7.3.3 Resumo
ν$
Passo 9: Calcule k$ = .
a$
7.4 EXERCÍCIOS
7.1 Introdução
II. Este modelo é mais restritivo do que aquele da Seção 6.6.1, porque este
modelo requer o conhecimento de um certo número de distribuições de
probabilidade.
(d) E[ X 2 ] (e) E[ X 2 X 1 ]
Resposta: 4,47825.
7-5 Admita as mesmas condições do Exercício 7-4, exceto que agora observamos
2
X2 = . Se sete bolas serão extraídas durante o terceiro período de observação,
7
qual é a melhor estimativa, para um segurado, sob o modelo de Bühlmann-
Straub, do número de bolas marcadas com 1 extraídas durante o terceiro
período?
Resposta: 3,30862.
Montante Agregado
de Indenização
8.000 11.000 15.000
1
Tamanho do Grupo 40 50 75 75
Montante Agregado
de Indenização
20.000 24.000 18.000
2
Tamanho do Grupo 100 120 120 95
Montante Agregado
de Indenização
10.000 15.000 13.500
3
Tamanho do Grupo 50 60 60 60
CAPÍTULO 8
8.1 INTRODUÇÃO
P[ B H] ⋅ P[ H ]
P[ H B] = , (8.1)
P[ B]
contanto que P[B] > 0. Ignorando-se P[B], que pode ser considerado como uma
constante, desde que não depende de H, podemos interpretar a Equação (8.1) como
a seguinte função de H:
Definição 8.1
Γ( a + b)
Γ( a ) ⋅ Γ(b) ⋅ θ (1 − θ)
b− 1
a −1
0≤ θ≤ 1
g(θ) = (8.2)
0 para outros casos
é a função de densidade de uma variável aleatória que tem uma distribuição beta
com parâmetros a e b. Usamos β( a , b) para representar tal distribuição.
n r
Θ ( 1 − Θ) ,
n −r
(8.3)
r
Teorema 8.1
θ para ni = 1
( )
f ni θ =
1 − θ para ni = 0
,
de Bernoulli.
Demonstração
Γ( a + b) a − 1
θ ( 1 − θ) ,
b −1
(8.2)
Γ ( a) ⋅ Γ ( b )
verossimilhanças, i
i= 1
θ r ( 1 − θ)
n− r
. (8.4)
1
Θ não muda ao longo do tempo, sendo constante para todas as tentativas de
O termo “constante” significa que
Bernoulli. Todavia, supõe-se que Θ seja uma variável aleatória com distribuição a priori β( a , b) .
Capítulo 8 – Credibilidade e Inferência Bayesiana 170
θ a + r −1 ( 1 − θ)
b + n − r −1
, (8.5)
e −θ θ n
n = 0, 1, K
f (n θ) = n ! . (8.6)
0 para outros casos
e − βθ βα θ α − 1
Γ(α) θ≥ 0
g(θα, β) = (8.7)
0 para outros casos
é a função densidade de uma variável aleatória que tem uma distribuição gama com
parâmetros α e β . Usamos G(α, β) para representar tal distribuição.
Teorema 8.2
Demonstração
e − βθ βα θα −1
, (8.8)
Γ(α)
∏ f (n θ) . O produto das
m
∑
(e )( e )L( e )=e
ni
−θ
θ n1 −θ
θ n2 −θ
θ nm − mθ
⋅θ i =1
(8.9)
− mθ
=e ⋅θ mn
.
2
Veja o Exercício 8-2(a) para maiores detalhes.
3
Veja o Exercício 8-2(b) para maiores detalhes.
Capítulo 8 – Credibilidade e Inferência Bayesiana 172
f ( x θ) =
1
σ1 ⋅ 2π
[
exp − ( x − θ) / 2σ12 ,
2
] (8.10)
g(θ) =
1
σ2 ⋅ 2π
[ 2
]
exp − (θ − µ) / 2σ22 . (8.11)
Teorema 8.3
~ µσ12 + σ22 nx
µ= (8.12)
σ12 + nσ22
e variância
Capítulo 8 – Credibilidade e Inferência Bayesiana 173
~2 = σ12 σ22
σ , (8.13)
σ12 + nσ22
1 n
onde x = ∑ x é a média das realizações das n variáveis aleatórias X 1 , X 2 ,K , X n .
n i =1 i
Demonstração
X 1 = x 1 , X 2 = x 2 , K , X n = x n , e expressa por
[ ] (
exp − (θ − µ) / 2σ22 ⋅ f x 1 , x 2 , K , x n θ .
2
) (8.14)
[ ]
n
exp − (θ − µ) / 2σ22 ⋅ ∏ f xi Θ
2
i =1
(
)
(8.15)
[
] [
]
n
i =1
[ ]
exp (θnx / σ12 ) − ( nθ 2 / 2σ12 ) − ( θ 2 / 2σ22 ) + ( θµ / σ22 ) . (8.16)
σ 2 + nσ 2 µσ12 + σ22 nx
2
exp− θ − .
1 2
[ ]
E X i Θ = µ( Θ) (8.17)
para i = 1, 2, ...
Teorema 8.4
Considere-se Xl, X2, ... variáveis aleatórias com média Θ tal que (a) a
Equação (8.17) seja válida para i = 1, 2, ... , e (b) os Xi‘s sejam condicionalmente
independentes dado Θ . Então, para n = 1, 2, ...
Capítulo 8 – Credibilidade e Inferência Bayesiana 175
[
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n ] (8.18)
[
= E Θ µ( Θ) X 1 = x 1 , X 2 = x 2 , K , X n = x n ].
Demonstração
[
E X n + 1 X 1 = x1 , X 2 = x 2 , K , X n = x n ]
[[
= E Θ E X n +1 X 1 = x 1 , X 2 = x 2 , K , X n = x n , Θ ]]
[ [
= E Θ E X n +1 Θ ] X 1 = x 1 , X 2 = x 2 ,K , X n = x n ]
[
= E Θ µ( Θ) X 1 = x 1 , X 2 = x 2 , K , X n = x n , ]
onde a segunda igualdade é um resultado da suposição de independência
condicional e a terceira igualdade resulta da aplicação da Equação (8.17).
Corolário 8.1
[
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n ]
= E Θ [Θ X 1 = x 1 , X 2 = x 2 , K , X n = x n ].
Demonstração
4
Veja o Exercício 8-8(a)(i).
Capítulo 8 – Credibilidade e Inferência Bayesiana 176
a
e a variância de uma variável aleatória com distribuição β( a , b) são e
a+b
ab
, respectivamente, o valor de k é
( a + b + 1)( a + b) 2
k=
[ ] = E [Θ(1 − Θ)]
E Θ VarI ( I Θ ) Θ
Var ( E [ I Θ ])
Θ I
Var (Θ) Θ
EΘ [ Θ ] − EΘ [ Θ 2 ]
=
VarΘ [Θ]
(
E Θ [ Θ] − VarΘ ( Θ) + E Θ [Θ 2 ] )
=
VarΘ [ Θ]
a ab a
2
− +
a + b ( a + b + 1)( a + b ) 2 a + b
=
ab
( a + b + 1)( a + b) 2
b + ( a + b + 1)( a)
1−
( a + b + 1)( a + b)
=
b
( a + b + 1)( a + b)
( a + b + 1)( a + b) − b − ( a + b + 1)( a)
( a + b + 1)( a + b)
=
b
( a + b + 1)( a + b)
( a + b + 1)( b) − b
= = ( a + b + 1) − 1
b (8.19)
= a + b.
Capítulo 8 – Credibilidade e Inferência Bayesiana 177
n n
Z= = . (8.20)
n+ k n + a +b
a r
+
a + b+ n a +b + n
a a + b r n
= + (8.21)
a + b + n a + b a + b + n n
a + b a n r
= + .
a + b + n a + b a + b + n n
n a +b
Posto que Z = e (1 − Z ) = , podemos reescrever o lado
a + b+ n a + b+ n
direito da Equação (8.21) como
( 1 − Z )
a r
+ Z . (8.22a)
a + b n
a
uma vez que (a) a média da distribuição a priori beta é e (b) a proporção de
a+b
r
sucessos observados em n tentativas, que é a média dos dados observados, é .
n
Assim, mostramos que se (a) é possível supor que os dados têm uma
distribuição binomial (o resultado de n tentativas de Bernoulli independentes), e (b)
uma distribuição beta é empregada como a distribuição a priori, então a média da
Capítulo 8 – Credibilidade e Inferência Bayesiana 178
Seja N uma variável aleatória que tem uma distribuição de Poisson com
média Θ . Por sua vez, deixamos a média da distribuição de Poisson, Θ , ter uma
distribuição gama, G(α, β) , cuja função de densidade é definida pela Equação (8.7).
α α
Como a média e a variância de G(α, β) são e 2 , respectivamente, o valor de k
β β
k=
[ ] = E [Θ] = α / β
E Θ VarN ( N Θ) Θ
= β. (8.23)
Var ( E [ N Θ]) Var (Θ ) α / β
2
Θ N Θ
m m
Z= = . (8.24)
m+ k m + β
5
Veja o Exercício 8-8(b)(ii).
Capítulo 8 – Credibilidade e Inferência Bayesiana 179
α mn β α m
+ = + ( n ).
m + β m + β m + β β m + β
m β
Considerando-se que Z = e (1 − Z ) = , podemos reescrever a
m+ β m+ β
α
(1 − Z ) + Z ( n ). (8.25a)
β
Em resumo, mostramos que se (a) é possível supor que os dados têm uma
distribuição de Poisson, com parâmetro (média) Θ , e (b) uma distribuição gama é
empregada como a distribuição a priori de Θ , então, a média da distribuição a
posteriori é igual à correspondente estimativa de credibilidde de Bühlmann.
Novamente, a média da distribuição a posterior é igual à média da distribuição
preditiva (binomial negativa) da próxima observação (i.e., tentativa de Poisson).
Embora esta propriedade prevaleça nos dois últimos exemplos, eles são apenas
casos especiais. Há muitas circunstâncias nas quais a média da distribuição a
posteriori não é igual à média da distribuição de preditiva. A média da distribuição
preditiva da próxima observação é a estimativa Bayesiana do componente de
freqüência do prêmio puro, supondo-se uma função de perda do tipo erro
quadrado.
Capítulo 8 – Credibilidade e Inferência Bayesiana 180
k=
[ ] = E [σ ] = σ
E Θ VarX ( X Θ) Θ 1
2 2
1
. (8.26)
Var ( E [ X Θ]) Var (Θ ) σ
2
Θ X Θ 2
n n
Z= = (8.27)
n + k n + (σ12 / σ22 )
.
µσ12 + σ22 nx
E [Θ X 1 = x1 , X 2 = x 2 , K , X n = x n ] =
σ12 + nσ22
σ12 nσ22
= 2 ⋅ µ+ 2 ⋅x
σ1 + nσ22 σ1 + nσ22
= (1 − Z ) H + ZR ,
(8.28)
onde H = µ, R = x e
nσ22 n
Z= 2 = ,
σ1 + nσ2 n + (σ12 / σ22 )
2
Capítulo 8 – Credibilidade e Inferência Bayesiana 181
Em resumo, mostramos que se (a) é factível supor que os dados têm uma
distribuição normal com média Θ e variância σ12 , e (b) uma distribuição normal
com média µ e variância σ 22 é empregada como a distribuição a priori de Θ , então
a média da distribuição a posteriori é igual à à correspondente estimativa de
credibilidade de Bühlmann. Novamente, desde que as condições do Teorema 8.4
sejam satisfeitas, a média da distribuição a posteriori é também igual à média da
distribuição preditiva da próxima observação (i.e., tentativa normal). Também, a
média da distribuição a posteriori de Θ é a estimativa pontual Bayesiana de Θ ,
supondo-se uma função de perda tipo erro quadrado.
Definição 8.4
exp[ p( Θ) ⋅ A( x ) + B( x) + q( Θ) ] x = x 1 , x 2 ,K
f ( x Θ) =
0 para outros casos
Definição 8.5
Diz-se que uma família exponencial para a qual A(x) = x é uma família
exponencial linear.
n Θ x
(1 − Θ ) ,
n
(8.29)
x 1 − Θ
Capítulo 8 – Credibilidade e Inferência Bayesiana 183
Θ
x
Θ
ln y = x ⋅ ln ,
1− Θ
ou
Θ
y = exp( ln y) = exp x ⋅ ln .
1 − Θ
n Θ
⋅ expx ⋅ ln ⋅ ( 1 − Θ) .
n
x
1− Θ
n
Visto que e (1 − Θ) n podem ser escritos como exp[ B( x ) ] e exp[ q( Θ) ] ,
x
Θ
respectivamente, e podemos fazer A(x) = x e p( Θ) = ln , a função densidade
1 − Θ
Teorema 8.5
8.5.1 Parâmetros
[ ]
posteriori especificada por P A = a i , B = b j X 1 = x1 , para i = 1, 2 e j = 1, 2.
[ ]
E X n +1 X 1 , X 2 , K , X n para o (n + 1)-ésimo período de observação.
Capítulo 8 – Credibilidade e Inferência Bayesiana 186
Exemplo 8.1
Solução
1 0 <θ< 1
f ( θ) = .
0 para outros casos
f (θ) ⋅ ( e −θ θ 1 ) = (1)( e −θ θ 1 ) = θ ⋅ e −θ .
θ ⋅ e−θ θ ⋅ e −θ θ ⋅ e −θ
f ( Θ N 1 = 1) = = = ,
P[ N 1 = 1] θ ⋅ e − θ dθ 1 − 2 e
−1
∫
1
θ ⋅ e −θ
1 1
∫ θ ⋅ f (θ N 1 = 1) dθ = ∫ θ ⋅
0 0 1 − 2e −1
dθ
θ2 ⋅ e − θ
1
=∫ dθ
0 1 − 2e
−1
2 − 5e −1
=
1 − 2 e −1
= 0,608.
8.6 EXERCÍCIOS
8.1 Introdução
então ∫ f ( x) dx = 1 .
−∞
Γ ( a + b)
∞ 1
∫ f ( x) dx = ∫ Γ ( a) ⋅ Γ(b) x (1 − x) b −1 dx = 1.
a −1
−∞ 0
Γ( a + b)
1
∫x (1 − x) b −1 dx =
a− 1
Isto implica que . Use a última equação para
0
Γ ( a ) ⋅ Γ ( b)
Γ( a + r ) ⋅ Γ( b + n − r )
1
∫θ (1 − θ) b+ n − r− 1 dθ =
a+ r− 1
, completando, assim, a prova
0
Γ ( a + b + n)
de Teorema 8.1.
Capítulo 8 – Credibilidade e Inferência Bayesiana 189
∞ ∞
e − βθ βα θ α − 1
∫ g(θ) dθ = ∫0 Γ (α) dθ = 1.
−∞
θ α + mn −1 dθ = (β + m)
−( α + mn )
∫e (− β + m) θ
⋅ Γ(α + mn ) , completando, desta forma, a
0
Respostas: 3; 7.
8-4 Você sabe que (i) um risco individual tem exatamente um sinistro a cada ano,
(ii) a severidade de cada sinistro tem função densidade exponencial
f ( x T = t ) = te − tx , x > 0 , (iii) o parâmetro, T, tem função densidade de
Resposta: 60θ 2 ( 1 − θ) 3 .
8-6 O número de sinistros, Ni, durante o i-ésimo ano da apólice para um risco
individual tem uma distribuição de Poisson com parâmetro Θ . Por seu turno,
Θ tem uma distribuição gama a priori com função densidade g(θ) = θ ⋅ e −θ ,
Resposta: 4θ 2 e −2θ .
Resposta: 0,159.
8-8 (a) Use a informação do Exercício 8-2(a) e o Teorema 8.1 para mostrar o
seguinte:
a
(i) A média da distribuição a priori, β( a , b) é .
a+b
Capítulo 8 – Credibilidade e Inferência Bayesiana 191
a+r
(ii) A média da distribuição a posteriori, β( a + r , b + n − r ) é .
a + b+ n
α
(i) A média da distribuição a priori, G(α, β) é .
β
α + mn
(ii) A média da distribuição a posteriori, G(α + mn , β + m) é .
β+ m
8-9 Você sabe que (i) o número de sinistros segue uma distribuição de Poisson
com média Θ , (ii) antes do primeiro ano de cobertura, Θ é admitida como
tendo a função densidade gama
Resposta: 0,195.
8-10 Você é informado de que (i) o número de sinistros para uma coleção de 20
segurados segue uma distribuição de Poisson com média Θ , (ii) Θ têm uma
distribuição gama com média 0,10 e variância 0,0025, e (iii) durante o
primeiro ano de observação, ocorrem 6 sinistros a partir dos 20 segurados.
Encontre a variância da distribuição a posteriori de Θ .
Capítulo 8 – Credibilidade e Inferência Bayesiana 192
Resposta: 0,0028.
8-11 Você é informado de que (i) o número de sinistros, N, para um único segurado
segue uma distribuição de Poisson com média Θ , (ii) Θ têm uma distribuição
gama com média 0,10 e variância 0,0003, (iii) 150 sinistros aconteceram
durante o último período de três ano, e (iv) 200 apólices estiveram em vigor
durante cada um dos últimos três anos. Encontre a média da distribuição a
posteriori de Θ .
Resposta: 0,196.
(a) Binominal
(c) Poisson
8-14 A distribuição a priori de uma variável aleatória, H, é dada por P[H = 0,25] =
0,8 e P[H = 0,50] = 0,2. O resultado de um único experimento, D1, está
distribuído de acordo com
[ ]
P D1 = d 1 H = h = h d 1 (1 − h)
( 1− d 1 )
,
para d1 = 0, 1.
(b) P[ D2 = 0 D1 = 1] = ; [ ]
2 1
P D2 = 1 D1 = 1 = .
3 3
(c) Qual das quantidades Nl, N2, e Θ , definidas nos itens (a) e (b), pode ser
observada?
Capítulo 8 – Credibilidade e Inferência Bayesiana 194
1
Respostas: (a) (b) 4( d + 1)( d + 2) ⋅ 3− ( d + 3) (c) N1 e N2
8
8-17 Sejam X1, X2, ..., Xn variáveis aleatórias que representam o lucro líquido (ou
perda) em cada apólice de acidente de trabalho em vigor durante um particular
ano civil. As seguintes premissas são feitas
(i) X1, X2, ..., Xn são variáveis normais identicamente distribuídas, com média
Θ e variância 1.
26 5
Respostas: (a) (b)
11 21
Capítulo 8 – Credibilidade e Inferência Bayesiana 195
Γ( 4 + 5) ⋅ θ 3 ⋅ ( 1 − θ) 4
f ( θ) = , 0≤ θ≤ 1,
Γ( 4) ⋅ Γ( 5)
4 20
com média e variância .
4+5 ( 3 + 4 + 2) 2 ( 3 + 4 + 3)
1
Resposta: .
2
Resposta: 1,50.
Referências Bibliográficas 196
REFERÊNCIAS BIBLIOGRÁFICAS
12. De Vinti, T.R. and T.N. Herzog, “Modeling Home Equity Conversion
Mortages,” TSA, XLIII (1991), 261-275.
15. Efron, B. and C. Morris, “Steins’s Estimation Rule and Its Competitors –
Na Empirical bayes Approach,” JASA, 68, No. 341 (1973), 117-130.
18. Ericson, W.A., “On the Posterior Mean and Variance of a Population
Mean,” JASA, 65, No. 330 (1970), 649-52.
23. Hansen, M.D. and Y.R. Wang, Managing Data Quality. A Critical Issue
for the Decade to Come. Cambridge: Sloan School of Management,
Massachusetts Institute of Tecnology, 1991.
24. Heckman, P.E. and G.G. Meyers, “The Calculations of Aggregate Loss
Distributions from Claim Severity and Claim Count Distributions,” PCAS,
70 (1983), 22-74; PCAS, 71 (1984), 49-66.
29. Herzog, T.N. and D.B. Rubin, “The Use of Multiple Imputations to
Handle Nonresponse,” Chapter 15 of Non-response in Sample Surveys:
The Theory of Current Pratice. New York: Academic Press, 1983.
30. Hewitt, C.C. Jr., “Credibility for Severity,” PCAS, 57 (1970), 148-71;
PCAS, 58 (1971), 25-31.
33. Hogg, R.V. and S. Klugman, Loss Distributions. New York: John Wiley
and Sons, 1984.
34. Hossack, I.B., J.H. Pollard, and B. Zehnwirth, Introductory Statistics with
Aplications in General Insurance. New York: Cambridge University
Press, 1983.
36. Jewell, W.S., “The Credible Distribution,” ASTIN Bulletin, 7 (1974), 237-
69.
38. _________, “Preceding IBNYR Events and Delays II: Discrete Time,”
ASTIN Bulletin, No. 20 (1990), 93-111.
40. Kimeldorf, G.S. and D.A. Jones, “Bayesian Graduation,” TSA XIX (1967),
66.
46. Mayerson, A.L. and D.A. Jones and N.L. Bowers, “The Credibility of the
Pure Premium,” PCAS, 55 (1968), 175-185.
47. Morgan, I.M., Credibility Theory under the Collective Risk Model, Ph.D.
dissertation. Madison: University of Wisconsin, 1983.
Referências Bibliográficas 201
48. Morris, C. and L. van Slyke, “Empirical Bayes Methods for Pricing
Insurance Classes,” Proceedings of the American Statistical Association:
1978 Business and Economics Section, (1979), 579-582.
49. Mosteller, F. and G.W. Tukey, Data Analysis and Regression. Reading:
Addison-Wesley Publishing Company, 1977.
51. Panjer, H.H. and G.E. Willmo, Insurance Risck Models. Schaumburg:
Society of Actuaries, 1992.
56. Russo, G., “Continuous Time Models of the Reporting and Cost Process of
Insurance Claims” (Ph.D. Dissertation). Berkeley: University of
California, 1995.
57. Savage, L.J., The Foundations of Statistics. New York: John Wiley and
Sons, 1954.
Referências Bibliográficas 202
58. Sundt, B., “On Greatest Accuracy Credibility with Limited Fluctuation,”
Scand. Actur. J., 2 (1992), 109-119.
63. Whitney, A., “The Theory of Experience Rating,” PCAS, 4 (1918), 274-
292.