You are on page 1of 216

UNIVERSIDADE FEDERAL DO CEARÁ − UFC

FACULDADE DE ECONOMIA, ADMINISTRAÇÃO, ATUÁRIA E


CONTABILIDADE − FEAAC
CURSO DE CIÊNCIAS ATUARIAIS

INTRODUÇÃO À
TEORIA DA CREDIBILIDADE

Antonio Mário Rattes de Oliveira

Fortaleza
1999
Universidade Federal do Ceará - UFC

Faculdade de Economia, Administração, Atuária e Contabilidade - FEAAC

Curso de Ciências Atuariais

Antonio Mário Rattes de Oliveira

Introdução à Teoria da Credibilidade

Dissertação de graduação apresentada ao


Curso de Ciências Atuariais da FEAAC/UFC,
como requisito para obtenção de título de
bacharel em Ciências Atuariais

Orientador: Prof. Emílio Recamonde Capelo

Fortaleza
1999
OLIVEIRA, Antonio Mário Rattes de. Introdução à Teoria da Credibilidade.
Fortaleza, 1999. 202p. (Dissertação de Graduação apresentada ao
Curso de Ciências Atuariais da UFC/FEAAC).

Resumo: apresenta os conceitos preliminares de Teoria da Credibilidade,


destacando-se os modelos de Bühlmann e Bühlmann-Straub e de Inferência
Bayesiana. Aborda os conceitos de Credibilidade aplicados aos ramos de
seguro, como forma de calcular os prêmios atuais de cada período levando-se
em consideração a experiência anterior observada no portfólio.

Palavras-chave: Claims – Variável aleatória – Seguro – Credibilidade –


Função de Perda – Probabilidade - Estatística
INTRODUÇÃO À TEORIA
DA CREDIBILIDADE

Banca Examinadora

NOTA:
Prof. Dr.: Emílio Recamonde Capelo - Orientador

NOTA:
Prof. Dr: Luiz Ivan de Melo Castelar

NOTA:
Profa.: Iana Pinto Bezerra
Aos meus pais, pelo tempo,
carinho e compreensão
investidos e ao meu filho no
qual deposito meu amor,
carinho e esperança da
continuidade de minha obra.
AGRADECIMENTOS

Este trabalho, na realidade, constitui-se de uma pequena contribuição que


deixamos ao Curso de Ciências Atuariais da Universidade Federal do Ceará – UFC,
a qual parece-nos um pouco pretenso chamar de monografia. Contudo, não teria
sido possível a sua realização se não fosse o apoio, perseverança e paciência do
Prof. Emílio Recamonde Capelo, que, além de ser o fundador do curso que ora
concluímos, guiou-nos pelo caminhos aleatórios da Atuária desde que nos
conhecemos a alguns anos idos.
Ao Prof. Recamonde dedico minha principal homenagem nos
agradecimentos desta monografia, pois é irrelevante lembrar o seu empenho em
criar e manter nosso curso e divulgar a Ciência Atuarial em nosso país e além de
suas fronteiras.
Mesmo os trabalhos mais simples muitas vezes não são conduzidos por
um único indivíduo, mas por um conjunto de pessoas com as mais variadas
características e conhecimentos que são alinhadas para que se obtenha o melhor
resultado possível. Este trabalho não foge à esta regra e, embora tenhamos sido o
principal colaborador para a sua feitura, várias pessoas dele participaram e o
engrandeceram com suas contribuições.
Inicio lembrando de todos os professores que nos acompanharam ao
longo deste curso e com sua paciência nos transmitiram os conhecimentos que
reunimos, em maior ou menor medida, neste trabalho. Preferimos não citar nomes
para não cometermos o pecado de esquecer algum, pois todos foram igualmente
importantes em nossa formação.
Também estão lembrados aqui os colegas de curso, que juntamente
conosco transpuseram com desenvoltura e esforço todos os obstáculos que se
puseram em nossos caminhos. Com certeza, muitas dessas amizades deixaram
laços vitalícios que superaram as distâncias impostas pelos diferentes caminhos que
nossas vidas percorrerão. A todos eles desejo sucesso nos seus projetos e que
transformem o conhecimento duramente adquirido nas salas da UFC em
contribuições que engrandeçam nossa profissão e melhorem a sociedade na qual
vivemos.
Meus agradecimentos finais vão para os amigos de profissão, que nos
brindaram com seus ensinamentos e que nos auxiliaram a tornar realidade um
sonho. Em especial agradeço aos amigos da Probus, sem querer citar nomes, pelo
constante auxílio na elaboração deste trabalho.
Pensávamos ter chegado ao final do caminho, mas descobrimos que
apenas demos o primeiro passo.

Mário Rattes
Fortaleza-CE, 1999.
SUMÁRIO

1. INTRODUÇÃO E HISTÓRIA 1
1.1 Introdução 1
1.2 Paradigmas Estatísticos 1
1.3 O que é Credibilidade? 2
1.4 Três Abordagens para Credibilidade 5

1.4.1 Abordagem de Flutuação Limitada 5


1.4.2 Abordagem de Bühlmann 6
1.4.3 Abordagem Bayesiana 6
1.4.4 Análise Exploratória dos Dados 7

1.5 Aplicações Recentes 8


1.6 Exercícios 10

2. PRELIMINARES MATEMÁTICAS 12
2.1 Teorema de Bayes 13
2.2 Exemplos do Uso do Teorema de Bayes 15
2.3 Probabilidades a Priori e a Posteriori 19
2.4 Esperança Condicional 20
2.5 Esperança Incondicional 23
2.6 Exercício 27

3. FUNÇÕES DE PERDA 35

3.1 Funções de Perda Erro Quadrado 35


3.2 Funções de Perda Erro Absoluto 38
3.3 Funções de Perda Quase Constantes 41
3.4 Outras Funções de Perda 43
3.5 Observações Adicionais 45
3.6 Exercícios 47

4. MODELO DISCRETO DE SEGURO DE


FREQÜÊNCIA-SEVERIDADE SOB
PRESSUPOSIÇÃO DE INDEPENDÊNCIA 50
4.1 Estimativas do Prêmio Puro Inicial 51
4.2 Estimativas do Prêmio Puro Revisado e Distribuições
Preditivas 54
4.3 Observações Adicionais 61
4.4 Exercícios 63

5. A ABORDAGEM DE CREDIBILIDADE DE
FLUTUAÇÃO LIMITADA 66
5.1 Introdução 66
5.2 Pré-Requesitos Matemáticos 67
5.3 A Abordagem de Credibilidade Plena 71

5.3.1 A Lógica para a Credibilidade Plena 71


5.3.2 A Fórmula de Credibilidade Plena 71
5.3.3 Exemplos Numéricos 74
5.3.4 Número Mínimo de Sinistros Esperados
Requeridos para Credibilidade Plena 77
5.3.5 Resumo da Abordagem de Credibilidade
Plena 78

5.4 A Abordagem de Credibilidade Parcial 78

5.4.1 A Lógica da Credibilidade Parcial 78


5.4.2 A Fórmula da Credibilidade Parcial 79
5.4.3 Exemplo de Credibilidade Parcial 80
5.4.4 Resumo da Abordagem de Credibilidade Parcial 81

5.5 Observações Adicionais e Resumo 82


5.6 Exercícios 84

6. A ABORDAGEM DE BÜHLMANN 89

6.1 Introdução 89
6.2 Elementos Básicos da Abordagem de Bühlmann 89

6.2.1 A Fórmula de Credibilidade de Bühlmann 89


6.2.2 Médias Hipotéticas 91
6.2.3 Variância das Médias Hipotéticas 93
6.2.4 Variância de Processo 97
6.2.5 Valor Esperado da Variância de Processo 98
6.2.6 Estimativas de Credibilidade 102
6.2.7 Resumo da Abordagem de Bühlmann 105

6.3 Características do Fator de Credibilidade 106


6.4 Exemplos Adicionais de Estimativas de Bühlmann 106
6.5 Componentes da Variância Total 111
6.6 Aplicações Práticas do Modelo de Bühlmann 112

6.6.1 Abordagem Geral 114


6.6.2 Métodos Ad Hoc 119

6.7 Dois Métodos Equivalentes Para Calcular Z 122


6.8 Comentários Adicionais 126
6.9 Exercícios 128

7. MODELO DE BÜHLMANN-STRAUB 141

7.1 Introdução 141


7.2 Modelo Para Um Segurado com Distribuição
de Probabilidade Subjacente Conhecida 141

7.2.1 Elementos Básicos 141


7.2.2 Exemplos 144
7.3 Modelo Para Dois ou Mais Segurados 148
7.3.1 Elementos Básicos 148
7.3.2 Exemplos 151
7.3.3 Resumo 161
7.3.4 Desvantagens desta Abordagem 162

7.4 Exercícios 163

8. CREDIBILIDADE E INFERÊNCIA BAYESIANA 166


8.1 Introdução 166
8.2 Distribuições a Priori Conjugadas 166
8.2.1 O Exemplo de Bernoulli 168
8.2.2 O Exemplo de Poisson 170
8.2.3 O Exemplo Normal 172

8.3 Credibilidade e Distribuições Conjugadas 174


8.3.1 O Exemplo de Bernoulli Revisitado 175
8.3.2 O Exemplo de Poisson Revisitado 178
8.3.3 O Exemplo Normal Revisitado 180

8.4 Credibilidade e Famílias Exponenciais 181

8.4.1 Famílias Exponenciais 181


8.4.2 Condições Para Igualdade dos Estimadores de
Bühlmann e Bayesiano 183
8.4.3 Um Procedimento Alternativo para Obter-se
Estimativas de Bühlmann e Bayesianas 184

8.5 Resumo dos Resultados Principais do Paradigma


Bayesiano 184
8.5.1 Parâmetros 184
8.5.2 Variáveis Aleatórias 185
8.5.3 Estimativas do Prêmio Puro (Valores
Esperados) 185
8.5.4 O Exemplo 6.1 Revisitado 186

8.6 Exercícios 188

REFERÊNCIAS 196
LISTA DE TABELAS

TABELA 4.1 52
TABELA 4.2 54
TABELA 4.3 56
TABELA 4.4 57
TABELA 4.5 58
TABELA 4.6 59
TABELA 4.7 60
TABELA 5.1 77
TABELA 6.1 101
TABELA 6.2 103
TABELA 6.3 109
TABELA 7.1 152
TABELA 7.2 157
LISTA DE FIGURAS

FIGURA 1.1 2
FIGURA 1.2 3
FIGURA 2.1 15
FIGURA 2.2a 16
FIGURA 2.2b 16
FIGURA 6.1 92
FIGURA 6.2 92
FIGURA 6.3 94
FIGURA 6.4 94
FIGURA 6.5 99
FIGURA 6.6 103
Capítulo 1 – Introdução e História 1

CAPÍTULO 1

INTRODUÇÃO E HISTÓRIA

1.1 INTRODUÇÃO

Conforme Rodermund [1989], “o conceito de credibilidade tem sido a


mais importante e penosa contribuição dos atuários de eventos “não vida” para a
ciência atuarial dos sinistros1.

Buscando apresentar um breve histórico da teoria da credibilidade, seria


útil começarmos descrevendo os dois principais paradigmas estatísticos e as três
maiores abordagens de estudo da credibilidade. Isto facilitará nossa descrição do
desenvolvimento histórico.

1.2 PARADIGMAS ESTATÍSTICOS

Credibilidade é um exemplo de estimativa estatística. Estimativas


estatísticas são obtidas mediante o uso de fórmulas ou modelos estatísticos que, por
sua vez, são baseados em abordagens ou paradigmas estatísticos. Há dois principais
paradigmas estatísticos de interesse atual, que são a) o paradigma freqüentista ou
clássico, e b) o paradigma Bayesiano.

No paradigma freqüentista, a probabilidade de um evento está baseada na


sua freqüência relativa. Toda informação anterior ou colateral é ignorada.
Defensores do paradigma freqüentista vêem isto como sendo objetivo, porque toda

1
Ver página 4.
Capítulo 1 – Introdução e História 2

atenção é voltada para as observações (dados). Algumas dos constructos principais


do paradigma freqüentista são o lema de Neyman-Pearson, os testes de hipóteses
estatísticos, os intervalos de confiança, e as estimativas não viesadas.

No paradigma Bayesiano, a probabilidade é tratada como uma medida


racional da crença. Assim, o paradigma Bayesiano é baseado em probabilidades
subjetivas ou pessoais e envolve o uso do Teorema de Bayes.

Informações a priori e/ou colaterais são incorporadas explicitamente ao


modelo através da distribuição a priori e da verossimilhança. Algumas dos
fundamentos principais do paradigma de Bayes, adicionalmente ao Teorema de
Bayes, são probabilidades condicionais, distribuições a priori, distribuições
preditivas e as probabilidades a posteriori.

1.3 O QUE É CREDIBILIDADE?

Suponha que temos duas coleções de dados, como ilustrado na seguinte


figura.

Observações Observações
a priori Atuais

# # # # # # # #

# # # # # # # #

# # # # # # # #

# # # # # # # #

Figura 1.1
Capítulo 1 – Introdução e História 3

Uma coleção consiste de observações atuais, obtidas a partir do período


de observações mais recente. A segunda coleção contém informações para um ou
mais períodos passados. As várias abordagens de credibilidade nos dão diferentes
“receitas” para combinar as duas coleções de observações para obter uma
estimativa global.

Em algumas abordagens sobre credibilidade, o estimador de


compromisso, C, é calculado pelo seguinte relacionamento

C = ZR + ( 1 − Z ) H , (1.1)

onde R é a média das observações atuais (por exemplo, os dados mais recentes), H
é a média a priori (por exemplo, uma estimativa baseada nos dados ou na opinião
prévia do atuário), e Z é o fator de credibilidade, que satisfaz à condição 0 ≤ Z ≤ 1 .
Nessas abordagens, a estimativa de credibilidade do verdadeiro valor é derivada
como um compromisso linear entre as observações atuais e a opinião prévia do
atuário. Graficamente vemos que o estimador de compromisso, C, está em algum
ponto do segmento de reta entre R e H, como mostrado na Figura 1.2 abaixo.

Figura 1.2
Capítulo 1 – Introdução e História 4

O símbolo Z denota o peso associado ao dado (atual) e (1 – Z) o peso


atribuído ao dado anterior. A fórmulação da equação (1.1), que inclui os conceitos
de dado a priori, é inerente ao espírito do paradigma Bayesiano. Como num
exemplo de seguro, a nova taxa de seguro, C, é obtida de uma média ponderada de
uma taxa de seguro antiga, H, e uma taxa de seguro, R, calculada com base somente
em observações de um período recente. Uma interpretação alternativa da equação
(1.1) é deixar C ser a taxa de seguro para uma particular classe de contratos, deixar
R ser a taxa de seguro calculada somente com base na recente experiência daquela
classe, e deixar H ser a taxa de seguro em cujo cálculo leva-se em consideração a
experiência combinada de todas as classes.

Para ilustrar os tipos de problemas práticos onde se aplica a teoria da


credibilidade, apresentamos aqui o enunciado de um problema típico daqueles
resolvidos neste texto. Por ainda não havermos desenvolvido o ferramental
necessário à resolução do problema, deixaremos sua solução para a Seção 6.6.1
(ver Exemplo 6.5).

Exemplo Ilustrativo

Uma companhia de seguro possui dois grupos de apólices de indenização


de acidente de trabalho. O montante agregado de indenizações (em milhões de
unidades monetárias) para os primeiros três anos da apólice está sumariado na
tabela abaixo. Estime o montante agregado de indenização durante o quarto ano da
apólice para cada um dos grupos de apólices.
Capítulo 1 – Introdução e História 5

Quantidades Agregadas de Sinistros

Grupo Ano da Apólice


de
1 2 3
Apólice

1 5 8 11

2 11 13 12

1.4 TRÊS ABORDAGENS PARA CREDIBILIDADE

Ao longo dos anos tem havido três principais abordagens para a


credibilidade: flutuação limitada, máxima precisão, e Bayesiana. As duas
primeiras abordagens caem sob o paradigma freqüentista, na medida que nenhuma
delas incorpora o uso do teorema de Bayes. Além disso, nenhuma dessas
abordagens requer explicitamente informações a priori (uma distribuição de
probabilidades formal ) para calcular ou o fator de credibilidade, Z, ou a estimativa,
C. A mais bem desenvolvida abordagem para a credibilidade de máxima precisão é
a credibilidade de mínimos quadrados. Como esta abordagem foi popularizada por
Hans Bühlmann, ela é referida neste texto como a abordagem de Bühlmann.

1.4.1 Abordagem de Flutuação Limitada

Mowbray [1914] descreveu uma abordagem de flutuação limitada


derivando o número de exposições requeridas para uma completa credibilidade, o
caso em que Z = 1. Perrymen [1932] propôs uma abordagem de flutuação limitada
para problemas de credibilidade parcial, aqueles em que Z < 1. Tratamentos mais
modernos da abordagem de flutuação limitada para ambas as situações de
Capítulo 1 – Introdução e História 6

credibilidade completa e parcial são encontrados em Longley-Cook [1962] e em


Hossack, Pollard e Zehnwirth [1983] 2. Fora da América do Norte, esta abordagem é
algumas vezes denominada “credibilidade americana”.

1.4.2 Abordagem de Bühlmann

A abordagem de Bühlmann, como descrita neste texto, é baseada no


trabalho de Bühlmann [1967], que tem sua origem em um texto de Bailey [1942 e
1943]. Bühlmann e Straub [1972] descrevem uma importante generalização do
trabalho de Bühlmann de 1967.

1.4.3 A Abordagem Bayesiana

Whitney [1918] declarou que o fator de credibilidade, Z, precisa ser da


forma

P
Z= , (1.2)
P+ K

onde P representa “prêmios ganhos” e K é uma constante a ser determinada. O


problema então foi como determinar K. Whitney observou que, “Na prática K deve
ser determinado por julgamento.”. Whitney também observou que, “A solução
detalhada deste problema depende do uso de probabilidades inversas” através do
teorema de Bayes. Talvez, em parte, porque o paradigma frequentista dominou a
comunidade estatística durante a primeira metade do século vinte, restou para
Bailey [1950] redescobrir e aprimorar as idéias de Whitney. Durante a segunda
metade do século vinte, os métodos Bayesianos ganharam crescentes adeptos. Dois
dos mais recentes e influentes livros sobre estatística Bayesiana foram de Savage
[1954] e Raiffa e Schlaifer [1961]. Mayerson [1964] juntou os desenvolvimentos
de estatística Bayesiana e o problema da credibilidade dos atuários não vida,

2
Ver Capítulo 8.
Capítulo 1 – Introdução e História 7

reexaminando os resultados de Bailey, usando o conceito de uma “distribuição a


priori conjugada” e outras notações e terminologias mais modernas. Ericson [1970]
e Jewell [1974] generalizaram os resultados de Mayerson. Considerando que
Whitney e Bailey tinham considerado somente a distribuição do número de
sinistros, Mayerson, Jones e Bowers [1968] e Hewitt [1970] consideraram ambas as
distribuições do número de sinistros e dos montantes desses sinistros. Hewitt usou
alguns exemplos artificiais e inteligentes para ilustrar o uso de uma abordagem
Bayesiana completa para tarifação de seguros. Coube à Klugman [1987 e 1992],
que teve a vantagem dos modernos equipamentos computacionais, estender as
idéias de Hewitt e aplicá-las verdadeiramente nos principais problemas práticos de
tarifação de seguros.

1.4.4 Análise Exploratória dos Dados

Alguns dos seguidores de Tukey [1977] consideram “análise exploratória


de dados” como sendo uma outra abordagem distinta para análise de dados.
Enquanto não é a intenção aqui entrar nesta discussão filosófica, é freqüentemente
importante fazer uma substancial análise exploratória de dados no seu banco de
dados antes de construir modelos formais, realizando inferência estatística, ou
implementando outros tipos de procedimentos estatísticos mais pertinentes. Há
duas razões para proceder desta forma. Primeiro, esta abordagem freqüentemente
oferece uma útil visão do processo gerador dos dados. A seleção de um bom
modelo depende de um completo conhecimento deste processo. Segundo, a
abordagem algumas vezes revela erros importantes no banco de dados sob estudo.
Algumas vezes vários erros podem ser corrigidos com um mínimo de esforço, mas
outras vezes pode ser caro corrigir os erros. Em casos extremos, o analista pode
decidir que o banco de dados está tão corrompido que análises adicionais são
infrutíferas. Hansen e Wang [1991] discutem as principais deficiências em uma
Capítulo 1 – Introdução e História 8

ampla variedade de importantes bancos de dados comerciais. Assim, infelizmente,


a existência de erros graves é uma ocorrência usual. Adicionalmente ao trabalho
pioneiro de Tukey, citado acima, outras, talvez mais refinadas, referências sobre
análise exploratória de dados incluem Mosteller e Tukey [1977] e Valleman e
Hoaglin [1981].

1.5 APLICAÇÕES RECENTES

Concluiremos este capítulo citando algumas aplicações recentes da teoria


da credibilidade a problemas atuariais. Fuhrer [1989] aplicou recentemente alguns
modelos do tipo Bühlmann a problemas de seguro de saúde. Jewell [1989 e 1990]
mostra como usar procedimentos Bayesianos para calcular requerimentos de
reservas incorridas mas ainda não informadas. Russo [1995] amplia o trabalho de
Jewell, buscando estimar reservas de seguros, Russo desenvolve modelos de tempo
contínuo de processos de registro e de pagamento de indenizações. Fazendo assim,
ele emprega tanto o paradigma Bayesiano como um modelo multiestado do
processo de sinistros ocorridos.

Klugman [1987] usa uma abordagem Bayesiana completa para analisar


dados reais de seguro de acidente de trabalho. Klugman investiga dois problemas.
Primeiro, ele calcula a distribuição conjunta a posteriori da freqüência relativa de
sinistros em cada um dos 133 grupos de tarifação. Ele emprega três distintas
distribuições a priori e mostra que os resultados são virtualmente idênticos em
todos os três exemplos. Em segundo lugar, Klugman analisa a proporção de perdas
para três anos de experiência em 319 classes de tarifas em Michigan. Ele usa esses
dados para construir intervalos de previsão para futuras observações (i.e., para o
quarto ano). Então compara suas previsões com os resultados reais.
Capítulo 1 – Introdução e História 9

O paradigma Bayesiano tem sido usado para graduar vários tipos de


dados de mortalidade. London [1985], prosseguindo o trabalho pioneiro de
Kimeldorf e Jones [1967], oferece uma descrição geral desse método.3 London
também fornece uma lógica Bayesiana para o historicamente popular método de
graduação de Whittaker. 4 Uma aplicação específica da graduação Bayesiana é
encontrada em Herzog [1983].

3
Ver Capítulo 5.
4
Ver Seção 4.5.
Capítulo 1 – Introdução e História 10

1.6. EXERCÍCIOS

1.1 Introdução

1-1 De acordo com Rodermund, qual tem sido a mais importante e duradoura
contribuição dos atuários não vida para a ciência atuarial?

Resposta: O conceito de Credibilidade.

1.2 Paradigmas Estatísticos

1-2 Cite os dois principais paradigmas estatísticos de interesse na atualidade.

Resposta: Freqüentista (ou Clássico); Bayesiano.

1.3 O que é Credibilidade?

1-3 Usando a Equação 1.1, calcule o estimador de compromisso C, dado que i) a


média das observações atuais é 10, ii) a média a priori é 6, e iii) o fator de
credibilidade é .25.

Resposta: 7.

1-4 Usando a Equação 1.1, calcule a taxa de seguro, C, para uma particular classe
de apólices dado que i) a taxa de seguro calculada estritamente a partir da
experiência dos dados daquela classe de apólice é $100, ii) a taxa de seguro
para todas as classes combinadas é $200, e iii) o fator de credibilidade para a
classe é .40.

Resposta: 160.

1.4 Três Abordagens para Credibilidade

1-5 Liste as três principais abordagens de Credibilidade.


Capítulo 1 – Introdução e História 11

Resposta: Flutuação Limitada; Máxima Precisão (ou de Bühlmann);


Bayesiana.
Capítulo 2 – Preliminares Matemáticas 12

CAPÍTULO 2

PRELIMINARES MATEMÁTICAS

Neste capítulo revisamos alguns conceitos básicos de probabilidade e de


Estatística. Na Seção 2.1, primeiro definimos o termo "probabilidade condicional"
que forma a base do Teorema de Bayes. O Teorema de Bayes, por sua vez, é o
fundamento do paradigma Bayesiano, uma útil ferramenta para resolver uma
grande variedade de problemas práticos. Depois do enunciado e da demonstração
do teorema de Bayes, apresentamos o Teorema de Probabilidade Total que é
freqüentemente útil em aplicações do Teorema de Bayes. Na Seção 2.2
consideramos alguns exemplos do uso de Teorema de Bayes. O primeiro exemplo
está baseado no exemplo de tiro-ao-alvo de Philbrick [1981]; o segundo é obtido de
Hewitt [1970]. As probabilidades a priori e a posteriori são definidas na Seção
2.3, e os conceitos de expectativa condicional e incondicional são revisados nas
Seções 2.4 e 2.5, respectivamente. O exemplo de Hewitt é usado para ilustrar os
resultados das Seções 2.4 e 2.5.

Os Exercícios 2-8, 2-9, 2-14, e 2-15 tratam da estimação do número de


reivindicações futuras de seguro, um componente chave das obrigações com perdas
futuras de um segurador. (A provisão para tal obrigação é chamada a reserva de
perda, e o processo de estimar a obrigação é chamado provisionamento de perda
ou desvendamento de perda.) Estes quatro exercícios estão baseado em material
discutido por Brosius [1993].
Capítulo 2 – Preliminares Matemáticas 13

2.1 TEOREMA DE BAYES

Definição 2.1
Suponha que A e B representam eventos e que P[B]>0. Então a
probabilidade condicional de A dado B é definida como sendo

P[ A e B]
P[ A B ] = . (2.1)
P[ B]

O resultado seguinte recebe o nome do Reverendo Thomas Bayes, que


viveu durante o século dezoito.

Teorema 2.1 (Teorema de Bayes)

Sejam A e B eventos e que P[B]>0. Então

P[ B A] ⋅ P[ A]
P[ A B] = . (2.2)
P[ B]

Demonstração

Por aplicação repetida da definição de probabilidade condicional, temos

P[ A e B ]
P[ B A] = ,
P[ A]

de forma que P[ A e B ] = P[ B A] ⋅ P[ A] . Então

P[ A e B] P[ B A] ⋅ P[ A]
P[ A B] = = . ∇
P[ B] P[ B]
Capítulo 2 – Preliminares Matemáticas 14

Dado que o valor de P[B] não depende de A, podemos considerar P[A|B]


como sendo o produto de uma constante, c, pelas duas funções de A,

P[ A B ] = c ⋅ P[ B A] ⋅ P[ A]. (2.2a)

Alternativamente podemos considerar P[A|B] como sendo proporcional


ao produto das duas funções de A, escrevendo

P[ A B ] ∝ P[ B A] ⋅ P[ A], (2.2b)

uma construção freqüentemente empregada nas aplicações que aparecem adiante


neste texto.

O próximo teorema é freqüentemente útil na aplicação do Teorema de


Bayes.

Teorema 2.2 (Teorema de Probabilidade Total)

Se Al, A2,... representam uma coleção enumerável de eventos mutuamente


exclusivos e exaustivos, de forma que

Ai I A j = 0 para i ≠ j

UA i = Ω,
i =1

onde Ω representa o inteiro espaço amostral. Então

P[ B] = ∑ P[B A ] ⋅ P[ A ].
i i (2.3)
i =1
Capítulo 2 – Preliminares Matemáticas 15

Demonstração

Temos

P[ B] = P[ B e Ω]
 ∞

= P  B e U Ai 
 i =1 
 ∞
 ∞ ∇
= P U ( B e Ai )  = ∑ P[ B e A ] i
 i =1  i =1

= ∑ P[B A ] ⋅ P[ A ].
i i
i =1

O Teorema de Probabilidade Total é extensamente usado neste texto. Sua


primeira aplicação é encontrada no Exemplo 2.2.

2.2 EXEMPLOS DO USO DE TEOREMA DE BAYES

Consoante a notação do Capítulo 1, a abordagem Bayesiana não produz


necessariamente uma estimativa linear do verdadeiro valor. De fato, a estimativa
Bayesiana, B, nem mesmo tem que estar no segmento de linha que une R e H, como
mostrado na figura seguinte.

•B

Figura 2.1

Isto é ilustrado no exemplo seguinte.


Capítulo 2 – Preliminares Matemáticas 16

Exemplo 2.1

Considere uma forma abreviada do exemplo de “tiro-ao-alvo" de


Philbrick [1981], onde um de dois atiradores, X ou Y, é escolhido ao acaso (i. e.,
1
com probabilidade 2
). Os tiros de cada atirador são uniformemente distribuídos

sobre dois alvos circulares não sobrepostos, ilustrados na Figura 2.2a.

X G Y
l l l

Figura 2.2a

A média das ocorrências sobre os dois alvos é G, o ponto médio entre os


centros dos dois círculos. (Na terminologia da Física, G é conhecido como o centro
de gravidade.) Um único tiro é disparado e resulta atingir o ponto S no alvo X,
como mostrado na Figura 2.2b. Qual é a estimativa Bayesiana do próximo tiro?

G
X Y
l l l
S
l

Figura 2.2b
Capítulo 2 – Preliminares Matemáticas 17

Solução

A resposta é o centro do alvo X. O motivo1 é que o atirador selecionado


deve ser o atirador X. Desde que a estimativa a priori é o ponto G, ponto médio
entre os centros dos dois alvos, a estimativa Bayesiana pontual da localização do
segundo tiro não está sobre o segmento de reta que vai de G até S, do primeiro tiro.

O exemplo seguinte do uso de Teorema de Bayes foi reproduzido do


importante trabalho de Hewitt [1970].

Exemplo 2.2
1
Um dado é selecionado ao acaso (i.e., com probabilidade 2
) a partir de

um par de "dados honestos". Sabe-se que um dos dados, a1, tem uma face marcada
e cinco faces não marcadas e que o outro dado, a2, tem três faces marcadas e três
faces não marcadas. Seja A a variável aleatória que representa a seleção do dado.
Seja u a saída se um lance do dado selecionado produz uma face não marcada, e
seja m a saída se o resultado é uma face marcada. Então

A1 denota o evento A = a1, a seleção do dado com uma face marcada e


cinco faces não marcadas, e

A2 denota o evento A = a2, a seleção do dado com três faces marcadas e


três faces não marcadas.

1
Ainda que a "razão" seja provavelmente intuitiva e portanto confortável, não está completa. Para fazer o raciocínio
completo, devemos empregar uma "função de perda” (veja Capítulo 3). Em particular, se uma função de perda de
erro quadrado é escolhida, então o centro é a "melhor" estimativa porque minimiza a soma dos quadrados dos
desvios. O leitor pode desejar voltar a este exemplo após a leitura do Capítulo 3.
Capítulo 2 – Preliminares Matemáticas 18

Seja Ti a variável aleatória que representa o resultado do i-ésimo lance


do dado selecionado, para i = 1, 2, ... . Então

Ui denota o evento Ti = u, o resultado de ter uma face não marcada


mostrada no i-ésimo lance, para i = 1, 2, ..., e

Midenota o evento Ti = m, o resultado de ter uma face marcada mostrada


no i-ésimo lance para i = 1, 2, ... .

Note que A e Ti representam variáveis aleatórias, onde A1, A2, Ui, e Mi


são eventos. Ao chamarmos cada dado de "honesto", queremos dizer simplesmente
que

[ ]
P U i A1 =
5
6
(2.4a)

[ ]
P U i A2 =
3
6
(2.5b)

Calcule o valor de P[A1|U1], a probabilidade de que o dado com uma só


face marcada foi tirado, posto que um dado foi selecionado ao acaso, lançado uma
vez, e o resultado foi uma face não marcada.

Solução

Pelo Teorema de Bayes, temos

P[U A ] ⋅ P[ A ]
[ ] [ P[U ] ] = P[U ] .
P A eU 1 1 1
P A1 U1 =
1 1

1 1
Capítulo 2 – Preliminares Matemáticas 19

5
Da Equação (2.4a), temos que P[U1|Al] = 6
. Porque cada dado é
1
escolhido com probabilidade 2
, temos que P[A1] = 12 . O valor de P[U1] é

computado usando o Teorema de Probabilidade Total como

[ ] [ [
P U1 = P A1 e U1 + P A2 e U 1 ] ]
= P[U A ] ⋅ P[ A ] + P[U A ] ⋅ P[ A ]
1 1 1 1 2 2

 5   1   3  1  2
=   ⋅  +   ⋅  = .
 6   2   6  2  3

Substituindo na equação do Teorema de Bayes, obtemos o resultado

 5  1
  ⋅ 
 6  2 5
[
P A1 U1 = ] 2
= .
8
3

2.3 PROBABILIDADES A PRIORI E A POSTERIORI

1
No exemplo 2.2, supusemos que 2
era nossa probabilidade inicial ou a

priori (estimativa) do evento Al. A palavra "a priori" se relaciona ao fato de que
esta probabilidade foi avaliada antes da experiência de lançar o dado ter sido
executada. Depois de observar o resultado de o primeiro lance ser uma face não
5
marcada, revisamos nossa estimativa da probabilidade de Al para 8
.

Simbolicamente, temos P[ A1 U1 ] = . Assim, nossa probabilidade


5
final ou a
8

posteriori (estimativa) de Al dado Ul é 85 . Esta modificação de nossa estimativa de

probabilidade a priori baseada em dados recentemente observados é a essência da


Capítulo 2 – Preliminares Matemáticas 20

estatística Bayesiana 2. Tais modificações são frequentemente requeridas para


resolver problemas atuariais práticos como o cálculo de taxas de prêmios de seguro.

Em termos da distribuição de probabilidade do parâmetro A, nosso

cálculo inicial era P[ A = a1 ] = e P[ A = a2 ] = . Depois de observar o resultado de o


1 1
2 2
primeiro lance ser uma face sem marca, revisamos nossa avaliação da distribuição

de probabilidade do parâmetro A para P[ A = a1 T1 = u ] = e P[ A = a2 T1 = u ] = . Em


5 3
8 8

geral, a distribuição inteira das probabilidades anteriores de um parâmetro é


chamada sua distribuição de probabilidade a priori, e a distribuição inteira de
probabilidades a posteriori é chamada sua distribuição de probabilidade a
posteriori. As funções de probabilidade a priori e a posteriori são definidas de
forma semelhante.

2.4 ESPERANÇA CONDICIONAL

Passamos agora para um conceito que é muito útil no cálculo de taxas de


prêmios de seguro.

Definição 2.2
Seja X uma variável aleatória discreta tal que xl ,x2. . . são os únicos
valores que X assume e com probabilidades positivas. Então, a esperança de X,
denotada por E[X], é dada por

E [ X ] = ∑ x i ⋅ P[ X = x i ]. (2.5)
i =1

2
Edwards, Lindman e Savage (1963) resumem a visão Bayesiana de Estatística como segue: “Probabilidade é opinião ordenada,
e a inferência a partir dos dados nada mais é que a revisão de tal opinião sob a luz de uma nova informação relevante.”
Capítulo 2 – Preliminares Matemáticas 21

Definição 2.3

Usando a anotação da definição 2.2, definimos a esperança condicional


de X dado que o evento Al aconteceu, representada por E[X | Al], como

E [ X A1 ] = ∑x
i =1
i [ ]
⋅ P X = xi A1 . (2.6)

Exemplo 2.3

Para ilustrar o conceito de esperança condicional, consideramos o


exemplo seguinte, também baseado em Hewitt [1970].

1
Uma roleta é selecionada ao acaso (com probabilidade 2
) a partir de um

par de roletas. Sabe-se que (a) uma roleta, b1, tem seis setores igualmente
prováveis, cinco deles marcados com "dois" e um deles marcado com "quatorze" e
(b) uma outra roleta, b2, tem seis setores igualmente prováveis, três deles marcados
com "dois" e três deles marcados com "quatorze". Seja B uma variável aleatória
que representa a seleção de uma roleta. Façamos também

B1 representar o evento B = bl, a seleção da roleta com cinco "dois” e um


“quatorze", e

B2 representar o evento B=b2, a seleção da roleta com três "dois" e três


“quatorze”.

Seja Si a variável aleatória que representa o resultado do i-ésimo


lançamento de uma roleta, para i = 1, 2, ... . Calcule (a) o valor de E[S1|Bl], a
esperança condicional do valor de um único lançamento, dado que a roleta com
apenas um "quatorze" foi selecionada, e (b) o valor de E[S1|B2] .
Capítulo 2 – Preliminares Matemáticas 22

Solução

(a) Pela definição de esperança condicional (definição 2.3) temos

[ ] [ ]
E S1 B1 = 2 ⋅ P S1 = 2 B1 + 14 ⋅ P S1 = 14 B1 [ ]
 5  1
= 2 ⋅   + 14 ⋅   = 4.
 6  6

(b) De uma forma semelhante podemos encontrar

[ ]  3
 6
 3
E S1 B2 = 2 ⋅   + 14 ⋅   = 8.
 6

O exemplo seguinte ilustra agora o uso do Teorema de Bayes.

Exemplo 2.4

Calcule o valor de P[B1|S1=2].

Solução

Como no exemplo 2.2, a partir do Teorema de Bayes, temos

[ ] [ ],
P S1 = 2 B1 ⋅ P B1
[
P B1 S1 = 2 = ] P[ S = 2]
1

onde P[ S1 = 2 B1 ] = [ ]
5 1
e P B1 = , e, a partir do Teorema 2.2, encontramos
6 2

[ ] [ ] [ ] [
P S1 = 2 = P S 1 = 2 B1 ⋅ P B1 + P S1 = 2 B2 ⋅ P B2 ] [ ]
 5  1  1  1  2
=   ⋅  +   ⋅  =  .
 6   2   2   2   3
Capítulo 2 – Preliminares Matemáticas 23

Então podemos calcular

 5  1 
  ⋅ 
 6  2  5
[
P B1 S1 = 2 = ]
2
= .
8
3

(O leitor é estimulado a calcular as demais probabilidades.)

2.5 EXPECTATIVA INCONDICIONAL

O teorema seguinte é útil no cálculo da estimativa de prêmios puros,


como será mostrado no Capítulo 4.

Teorema 2.3

Seja Al,A2,... uma coleção enumerável de eventos mutuamente


exclusivos e coletivamente exaustivos, e seja X uma variável aleatória discreta para
qual existe E[X]. Então

[
E [ X ] = ∑ E X Ai ⋅ P Ai . ] [ ] (2.7)
i =1

Demonstração

Porque X é uma variável aleatória discreta, temos que, com base na


Definição 2.2

[ ]

E[ X ] = ∑ x j ⋅ P X = x j . (2.5)
j =1

Pelo Teorema de Probabilidade Total temos

[ ] ∑ P[ X = x ]

P X = xj = j [ ]
Ai ⋅ P Ai .
i =1
Capítulo 2 – Preliminares Matemáticas 24

Podemos então reescrever a Equação (2.5) como

[ ]

E [ X ] = ∑ x j ∑ P X = x j Ai ⋅ P Ai . [ ]
j =1 i =1∞

Permutando a ordem dos somatórios, obtemos

[ ]
∞ ∞

E [ X ] = ∑ ∑ x j ⋅ P X = x j Ai ⋅ P Ai [ ]
i =1 j =1

[ ]

= ∑ P[ A ] ⋅ ∑ x
i j ⋅ P X = x j Ai .
i =1

Pela definição de esperança condicional (Definição 2.3), o segundo


somatório é E[X | Ai]; assim, a última expressão pode ser escrita como

[ ] [
E [ X ] = ∑ P Ai ⋅ E X Ai . ] ∇
i =1

Exemplo 2.5

Calcule o valor esperado da variável aleatória S1, definida no exemplo


2.3.

Solução

Usando o Teorema 2.3 e os resultados do Exemplo 2.3, obtemos

E[S1 ] = ∑ P[Bi ] ⋅ E[S 1 Bi ] =   ⋅ (4 ) +   ⋅ (8) = 6.


2
1 1
i =1 2 2

Algumas aplicações mais sofisticadas e úteis do Teorema 2.3 serão


discutidas no Capítulo 4.
Capítulo 2 – Preliminares Matemáticas 25

Teorema 2.4

Sejam X e Y variáveis aleatórias discretas e g(Y) uma função de Y para a


qual E[g(Y)] existe. Então, podemos escrever

E[g (Y )] = EY [g (Y )] = E X [EY [g (Y ) X ]], (2.8)

onde EX representa a esperança do espaço amostral de X.

Demonstração

Por definição de Ey , temos

E[g (Y )] = EY [g (Y )].

Desde que Y é uma variável aleatória discreta, então


E[g (Y )] = ∑ g ( yi ) ⋅ P[Y = y i ]
i =1

[ ] [ ]
∞ ∞
= ∑ g (yi ) ⋅ ∑ P Y = yi X = x j ⋅ P X = x j
i =1 j =1

[ ] [ ]
∞ ∞
= ∑ P X = x j ⋅ ∑ g ( y i ) ⋅P Y = y i X = x j
j =1 i =1

[ ] [ ]

= ∑ P X = x j ⋅ EY g (Y ) X = x j .
j =1

A expressão final acima é a esperança, com respeito a X, da esperança


condicional, com respeito a Y, da variável aleatória g(Y), dado que X = Xj. Assim
pode ser reescrita como

E[g (Y )] = E X [EY [g (Y ) X ]]. ∇


Capítulo 2 – Preliminares Matemáticas 26

Exemplo 2.6

Use o resultado do Teorema 2.4 para calcular E[S12], a esperança dos


resultados ao quadrado, obtidos com um lançamento.

Solução

Relembremos que B é a variável aleatória que representa o resultado de


selecionar ou a roleta bl ou a roleta b2 com igual probabilidade. Então, temos

[ ] [ [ ]]
E S12 = E B ES 1 S12 B

= ⋅ E [S B = b ] + ⋅ E [S ]
1 1
S1
2
1 1 S1 1
2
B = b2
2 2

= ( )
1  2 5
( )  1  1 
( )
1
( )
 1 
⋅  2 ⋅   + 14 2    + ⋅  2 2 ⋅   + 14 2  
2  6  6  2   2  2 

= ⋅ (36 ) + ⋅ (100 ) = 68.


1 1
2 2
Capítulo 2 – Preliminares Matemáticas 27

2.6 EXERCÍCIOS

2.1 Teorema de Bayes

2.2. Exemplos do Uso do Teorema de Bayes

2-l Qual é P[ A2 U 1 ] ?

3
Resposta: .
8

2-2 Sejam as condições descritas no Exemplo 2.2. Como antes, selecionamos um


dado ao acaso, mas agora lançamo-lo duas vezes em lugar de apenas uma vez.
Qual é a probabilidade de que o dado com uma só face marcada ter sido
selecionado, se ambos os lances resultam em faces sem marca? (Em termos

simbólicos, isto é dado por P[ A1 U1 and U 2 ]. )

25
Resposta: .
34

2-3 Admita-se as mesmas condições do Exemplo 2.2, exceto que

[ ]
P A1 =
5
8
[ ]
3
[ ]
and P A2 = . Qual é P A1 U 2 neste caso?
8

25
Resposta: .
34

2-4 Uma caixa contém 4 bolas vermelhas e 6 bolas brancas. Uma amostra de
tamanho 3 é tirada, sem reposição, da caixa. Qual é a probabilidade de obter-
se 1 bola vermelha e 2 bolas brancas, dado que pelo menos 2 das bolas na
amostra são brancas?

Resposta: 0,75.
Capítulo 2 – Preliminares Matemáticas 28

2-5 Os itens defeituosos em uma linha de montagem acontecem


independentemente com probabilidade 0,05. Uma amostra aleatória de 100
itens é tomada. Qual é a probabilidade de que o primeiro item retirado não é
defeituoso, dado que pelo menos 99 dos itens selecionados não estão
defeituosos?

5,90
Resposta: .
5,95

2-6 A caixa I contém 3 mármores vermelhos e 2 mármores azuis. A caixa II


contém 3 mármores vermelhos e 7 mármores azuis. A probabilidade de se
2 1
selecionar a caixa I é de 3
e a caixa II é selecionada com probabilidade 3
.

Uma caixa é selecionada ao acaso e um mármore vermelho retirado da caixa


selecionada. Qual é a probabilidade de que a caixa I ter sido selecionada?

Resposta: 0,80.

2-7 Uma população segurada de motoristas consiste em 1.500 motoristas jovens e


8.500 motoristas adultos. A distribuição de probabilidade do número de
sinistros relativos aos indivíduos segurados durante um único ano da apólice é
a seguinte:

Número de Probabilidade para


Sinistros
Jovens Adultos

0 0,50 0,80

1 0,30 0,15

2 0,15 0,05

3 0,05 0,00
Capítulo 2 – Preliminares Matemáticas 29

Uma apólice em particular tem exatamente 1 reivindicação. Qual é a


probabilidade que o segurado seja um motorista jovem?

Resposta: 0,261.

2-8 Uma companhia de seguro do ramo de seguro de propriedade só emite


apólices de automóvel cobrindo um ano civil. Seja X uma variável aleatória
que representa o número de sinistros de acidente informados durante ano civil
de 1995 referentes às apólices emitidas no início do ano civil de 1995. Seja Y
uma variável aleatória que representa o número total de sinistros de acidente
que serão eventualmente informados pertinentes às apólices emitidas para ano
civil de 1995. A probabilidade de que um sinistro de acidente individual de
uma apólice de 1995 seja informado durante ano civil de 1995 é d. Suponha
que os tempos em que são informados os sinistros individuais são mutuamente
independentes. Suponha também que Y tem distribuição binomial negativa
com parâmetros fixos r e p, dada por

 r + y − 1 r
P[Y = y ] =   ⋅ p ⋅ (1 − p) ,
y
(2.9)
 y 

para y = 0, 1, ... . Calcule P[Y = y | X = x], a probabilidade de que o número


total de sinistros informados sobre as apólices de 1995 seja y, dado que x
sinistros foram informados ao final do ano civil. [Sugestão: A solução requer
o uso dos Teoremas 2.1 e 2.2, e a identidade
 y   r + y − 1  r + x − 1  ( r + x ) + ( y − x ) − 1
  ⋅  =  ⋅ . Será requerida significativa
 x  y   x   y−x 

manipulação algébrica.

 ( r + x ) + ( y − x ) − 1
[ ] [1 − (1 − d )(1 − p )]
 ( 1 − d ) (1 − p)
y− x x+r
Resposta:  , para
 y−x 
Capítulo 2 – Preliminares Matemáticas 30

x = 0, 1, ... , e y = x, x + 1, ... .

2-9 Um segurador acredita que o número de sinistros, Y, que ocorrerão durante o


ano civil de 1995 é uniformemente distribuído no conjunto {2, 3, 4, 5, 6}, de
forma que

0,2 y = 2,3,4,5,6
P[Y = y ] = 
 0 para outros casos.

Adicionalmente, o segurador acredita que qualquer sinistro que ocorrer


durante o ano civil tem 50% de chance de ser reportado antes do final do ano
civil, e que o registro de um sinistro não influencia o registro de qualquer
outro sinistro. Seja X uma variável aleatória que representa o número de
sinistros ocorridos durante 1995 e reportadas antes do final de 1995. Calcule
os valores de P[Y = y X = x ], para x=0, 1, ... , 6 e y = x, x + 1, ... , 6.

Resposta:

P[Y = y | X = x]

Valor de Valor de y
x
2 3 4 5 6

0 16/31 8/31 4/31 2/31 1/31

1 32/88 24/88 16/88 10/88 6/88

2 16/99 24/99 24/99 20/99 15/99

3 8/64 16/64 20/64 20/64


4 4/29 10/29 15/29

5 1/4 3/4

6 1
Capítulo 2 – Preliminares Matemáticas 31

2.3 Probabilidades a Priori e a Posteriori

2.4 Esperança Condicional

2-10 Sejam R1 e R2 variáveis aleatórias estocasticamente independentes, cada qual


com função densidade de probabilidade f ( x ) = e − x , para x ≥ 0. Calcule

[ ]
E R12 + R22 R1 = r1 , para r1 > 0.

Resposta: r12 + 2 .

2-11 Sejam X e Y variáveis aleatórias estocasticamente independentes, cada qual


com função densidade f(x) definida por

 0 x<0

f ( x ) =  0,25 x = 0.
0,75 ⋅ e − x x>0

Calcule o valor esperado de X2 + Y3, dado que X = 3 e Y > 0.

Resposta: 15.

2-12 Sejam X e Y variáveis aleatórias discretas com função densidade conjunta


f(x,y) concentrada nos quatro cantos de um quadrado unitário ((0,0), (0,1),
(1,0) e (1,1)). Seja f(x,y) definida como segue:

x y f(x,y)

0 0 0,1

0 1 0,2

1 0 0,3

1 1 0,4
Capítulo 2 – Preliminares Matemáticas 32

Calcule cada uma das seguintes expressões:

(a) E Y [Y X = 1]

(b) E X [ X Y = 0]

4 3
Respostas: (a) (b)
7 4

2-13 Sejam X e Y variáveis aleatórias contínuas com função densidade conjunta

6 xy + 3x 2 , 0 < x <1
f(x,y) = 
 0 para outros valores

Encontre E [ X Y = y ] , para 0 < y < 1, seguindo os seguintes passos:

(a) Primeiro determine f(y), para 0 < x < y < 1.

(b) Depois determine f(x|y), para 0 < x < y < 1.

(c) Finalmente calcule E [ X Y = y ] .

3 − 2 3 2 −3 11y
Respostas: (a) 4 y 3 (b) xy + x y (c)
2 2 16

2-14 Usando os resultados e a notação do exercício 2-9, calcule o que se pede a


seguir:

(a) A esperança condicional E[Y X = 3] , isto é, o total do número esperado de


sinistros nas apólices de 1995 que serão informados em 1996 e além, dado
que 3 sinistros naquelas apólices foram informados durante 1995.

(b) E [Y X = 3] − 3 , ou seja, o número esperado de sinistros informados após


1995 nas apólices emitidas durante 1995.
Capítulo 2 – Preliminares Matemáticas 33

77 29
Respostas: (a) (b)
16 16

2-15 Mostre que se X e Y são as variáveis aleatórias definidas no exercício 2-8,


então

( 1 − d )(1 − p)
E [Y X = x ] = x + ( r + x) ⋅ ,
1 − (1 − d ) (1 − p )

para x = 0, 1, ... . Este resultado pode ser reexpresso da seguinte forma: dado
que x sinistros relativos às apólices de 1995 foram informados durante o ano
calendário 1995, então, o número esperado de sinistros que eventualmente
( 1 − d ) (1 − p)
serão informados em 1995 é x + ( r + x) ⋅ , para x = 0, 1, ... .
1 − (1 − d ) (1 − p)

Alternativamente, o número esperado de sinistros relativos às apólices de


( r + x ) ((1 − d )(1 − p)
1995 que serão informados em 1996 e além é , para x = 0, 1,
1 − ( 1 − d ) (1 − p )

... . [Sugestão: o valor esperado de uma variável aleatória tendo uma


n(1 − q )
distribuição binomial negativa com parâmetros n e q é . A distribuição
q

de Y | X = x é a mesma de U + X, onde U tem distribuição binomial negativa


com parâmetros n = r + x e q = 1 – ( 1 – d)(1 – p).]

2.5 Esperança Incondicional

2-16 Sejam as variáveis aleatórias discretas X e Y as definidas no exercício 2-12.


Calcule a esperança incondicional E[X].

Resposta: 0,70.

2-17 Sejam as variáveis aleatórias contínuas X e Y as definidas no exercício 2-13.


Capítulo 2 – Preliminares Matemáticas 34

(a) Mostre que a função densidade de probabilidade marginal de X é

3x + 3 x 2 − 6x 3 0< x <1


f(x) = 
 0 para outros valores

(b) Calcule a esperança incondicional E[X].

Resposta: (b) 0,55.

2-18 Suponha que o número de sinistros de seguro, R, atribuído a um indivíduo em


um ano de vigência da apólice tem distribuição binomial com parâmetro Θ
para r = 0, 1, 2, 3. Suponha, ainda, que o parâmetro Θ tem função densidade
g (θ) = 6(θ − θ 2 ) , para 0 < θ < 1 . Determine a esperança incondicional E[R].

Resposta: 1,50.
Capítulo 3 – Funções de Perda 35

CAPÍTULO 3

FUNÇÕES DE PERDA

Para obter uma estimativa pontual de Θ a partir de sua distribuição a


posteriori, é necessário especificar uma função de perda de Θ , L( Θ , Θ$ ), onde
usamos Θ$ para denotar um estimador de Θ . Como em uma análise de decisão
Bayesiana (veja, por exemplo, Berger [1985]), empregamos o estimador de Θ que
minimiza o valor esperado de L( Θ , Θ$ ).

Nas primeiras três seções deste capítulo consideramos três funções de


perda discutidas em Hogg e Klugman [1984] 1 Na Seção 3.4 consideramos algumas
outras funções de perda.

3. l FUNÇÕES DE PERDA ERRO QUADRADO

Definição 3.1

A função de perda

L( Θ , Θ$ ) = (Θ − Θ$ )
2
(3.1)

é conhecida como função de perda erro quadrado (ou desvio quadrado).

Exemplo 3-1

Calcule o valor esperado da função de perda erro quadrado, expresso por

L( Θ , Θ$ ) = (Θ − Θ$ ) , dado que Θ$ = 0 e que a função de densidade de probabilidade


2

de Θ é
Capítulo 3 – Funções de Perda 36

0 ,5 −1≤θ≤ 1
h( Θ) = 
 0 para outros valores

a função de densidade uniforme no intervalo fechado [-1, 1].

Solução

[ ( )] ∫ (θ − Θ$ )

⋅ h(θ)dθ
2
EΘ L Θ, Θ$ =
−∞

∞ 1
θ3 1
= 0,5 ⋅ ∫ θ dθ = 2
= .
−∞
6 −1
3

Exemplo 3-2

Calcule o valor esperado da função de perda erro quadrado expressa por


L( Θ , Θ$ ) = (Θ − Θ$ ) , conhecido o vetor de dados observados x, supondo que
2

1 n
Θ = Θ x = Θ( x 1 , x 2 , K , x n ) = ∑ xi = x
$ $ ( ) $
n i= 1

e que a função de densidade de probabilidade a posteriori de Θ tem média x e


variância σ 2 .

Solução

[(
E Θ L Θ, Θ )Θ
 ]
$ x = E  Θ − Θ$ ( ) 2
x

[
= E Θ (Θ − x ) x
2
]
= VarΘ ( Θ x)
= σ2 ,

1
Veja página 77.
Capítulo 3 – Funções de Perda 37

desde que x = EΘ [Θ x ].

Teorema 3.1

Deixe H( θ) representar a função de distribuição de probabilidade de Θ .

Se a função de perda é (Θ − Θ$ ) , o quadrado do erro (ou desvio), então o estimador


2

pontual, Θ$ , que minimiza o valor esperado da função de perda é a média da


distribuição de Θ .

Demonstração

Nossa meta é achar o valor de Θ$ que minimize

[(
EΘ Θ − Θ$ ) 2
]. (3.2)

Se a função de distribuição de Θ é contínua, por exemplo, então


podemos escrever

[( ) ] ∫ (θ − Θ$ )

⋅ h(θ)dθ,
2 2
E Θ Θ − Θ$ =
−∞

onde h( θ) é a densidade de Θ . No caso geral, nós podemos ampliar Expressão (3.2)


para

[( $
EΘ Θ − Θ ) ] = E [Θ − 2ΘΘ$ + Θ$ ]
2
Θ
2 2

= E [Θ ] − 2Θ$ ⋅ E [Θ] + Θ$
2 2
Θ Θ .

Para encontrar o valor de Θ$ que minimiza a Expressão (3.2),


diferenciamos a expressão E Θ [Θ 2 ] − 2Θ$ ⋅ E Θ [Θ ] + Θ$ 2 com respeito a Θ$ , igualando o

resultado a zero, e solucionamos para Θ$ . O resultado é


Capítulo 3 – Funções de Perda 38

− 2 E Θ [Θ] + 2Θ$ = 0,

que resulta em

Θ$ = EΘ [ Θ].

Assim, vemos que $ é a média da distribuição de Θ .


Θ

Corolário 3.1

Faça h(θ x ) representar a função de densidade a posteriori de Θ ,

conhecendo-se o vetor de dados observados x . Se a função de perda é (Θ − Θ$ ) ,


2

então o estimador pontual Bayesiano que minimiza o valor esperado da função de


perda é a média distribuição a posteriori de Θ .

Demonstração

Substitua simplesmente h( θ) por h(θ x ) e E Θ [• ] por E Θ [• x ] na


demonstração do Teorema 3.1.

3.2 FUNÇÕES DE PERDA ERRO ABSOLUTO

Definição 3.2

A função de perda

( )
L Θ , Θ$ = Θ − Θ$ (3.3.)

é conhecida como função de perda erro absoluto (ou desvio absoluto).

Exemplo 3.3

Seja Θ uniformemente distribuído em um intervalo fechado [-1, 8] e faça


Θ ter a função densidade de probabilidade
Capítulo 3 – Funções de Perda 39

1
 9 − 1≤θ≤ 8
f (θ) = 

 0 para outros valores.

Seja a função de perda de Θ uma função de perda erro absoluto


$ ( x ) , onde o estimador Θ$ ( x ) é a mediana da amostra x , x ,K x . Calcule a
Θ−Θ 1 2 n

perda esperada para a seguinte amostra de tamanho 5:

x1 = 1,1; x2 = 6,8; x3 = -0,7; x4 = 3,0, x5 = 3,2

Solução

Θ$ ( x ) , a mediana de { x 1 , x 2 ,K x 5 }, é 3.0. Então

[ ( )]

$ =
E Θ L Θ, Θ ∫ θ − Θ$ ( x) ⋅ f (θ)dθ
−∞
8
1
= ∫ θ − 3 9 dθ
−1

3 −θ θ−3
3 8

−∫ dθ + ∫ dθ
−1
9 3
9
= 2 ,3.

Teorema 3.2

Se a função de perda é Θ − Θ$ , isto é, a função de perda erro absoluto


(desvio absoluto), então o estimador pontual, Θ$ que minimiza o valor esperado da
função de perda é a mediana da distribuição, F, de Θ .
Capítulo 3 – Funções de Perda 40

Demonstração

Restringimos a demonstração para o caso em que Θ tem uma função de


distribuição contínua. A prova poderia ser estendida, com pequenas modificações,
para outros tipos de funções de distribuição. Começamos com a equação

m ∞

EΘ [ Θ − m ] = ∫ (m − θ) ⋅ dF (θ) + ∫ (θ − m)dF (θ). (3.4)


−∞ −∞

Integrando por partes, ou aplicando Teorema 3.1 do Bowers, et. al


[1986], temos que

m m

∫ (m − θ)dF (θ) = ∫ F (θ)dθ (3.5)


−∞ −∞

∞ ∞

∫ (θ − m) dF (θ) = ∫ (1 − F (θ))dθ. (3.6)


m m

As Equações (3.5) e (3.6) nos permitem reescrever a Equação (3.4) como

m ∞

EΘ [ θ − m] = ∫ F (θ)dθ + ∫ (1 − F (θ))dθ. (3.7)


−∞ m

Diferenciando a Equação (3.7) com respeito a m e igualando o resultado


a zero, obtemos

F( m) − (1 − F ( m) ) = 0,

ou

1
F( m) = .
2
Capítulo 3 – Funções de Perda 41

Isto demonstra que o mínimo de EΘ [ Θ − m ] é realmente atingido quando


m é a mediana de F ( θ) .

Corolário 3.2

Seja F (θ x ) a representação da distribuição a posteriori de Θ , posto o

vetor de dados observados x. Se a função de perda é Θ − Θ$ , o erro absoluto

(desvio), então, o estimador pontual Bayesiano, Θ$ , que minimiza o valor esperado


da função de perda é a mediana da distribuição a posteriori de Θ .

Demonstração

Substitua simplesmente F ( θ) por F (θ x ) e E Θ [• ] por E Θ [• x ] na


demonstração do Teorema 3.2.

3.3 FUNÇÕES DE PERDA QUASE CONSTANTES

Definição 3.3
Definição 3.3

A função de perda

 c Θ$ ≠ Θ
( $ )
L Θ, Θ =  $ (3.8)
0 Θ = Θ

é chamada de função de perda quase constante.

Exemplo 3.4

Calcule a perda esperada se L(Θ, Θ$ ) é definida pela Equação (3.8) com c


= 4, Θ tendo uma distribuição de Poisson com média λ e Θ$ = 3.
Capítulo 3 – Funções de Perda 42

Solução

[ ( )] ( )

EΘ L Θ, Θ$ = ∑ L k , Θ$ ⋅ P[Θ = k ]
k =0

= ∑ c ⋅ P[Θ = k ]
k=0
k≠3

e − λ λk

 e − λ λ3 
= 4⋅∑ = 4 ⋅ 1 −
k =0 k!  3! 
k ≠3

Teorema 3.3

Se para um número real não negativo c, a função de perda, denotada por


( )
$ é determinada pela Equação (3.8), então o estimador
L Θ, Θ pontual, Θ$ , que
minimiza o valor esperado da função de perda é a moda da distribuição de Θ .

Demonstração

[ ]
Nossa meta é minimizar EΘ L( Θ, Θ$ ) , onde L(Θ , Θ$ ) é definida pela

Equação (3.8). Temos, então

[ ( )]$ = E [ c] − c ⋅ P Θ = Θ$
E Θ L Θ, Θ Θ [ ]
= c − c ⋅ P Θ = Θ$ [ ]
( [
= c 1 − P Θ = Θ$ . ])
A última expressão alcança seu valor mínimo quando P[ Θ = Θ$ ] alcança
seu valor máximo. Isto acontece quando o estimador Θ$ é a moda da distribuição de
Θ . Note-se, no entanto, que a moda da distribuição de Θ não é necessariamente

única. Observe-se, ainda, que se Θ é uma variável aleatória contínua, então temos

[ [ ]]
os resultados P[ Θ = Θ$ ] = 0 e EΘ L Θ , Θ$ = c .
Capítulo 3 – Funções de Perda 43

Corolário 3.3

Se para um número real não negativo c, a função de perda, denotada por


( )
$ , é dada pela Equação (3.8), então o estimador pontual Bayesiano, Θ$ , que
L Θ, Θ

minimiza o valor esperado da função de perda é a moda da distribuição a


posteriori de Θ .

Demonstração

Simplesmente substitua E Θ [•] e P[ •] por E Θ [• x] e P[ • x] ,

respectivamente, na demonstração do Teorema 3.3.

3.4 OUTRAS FUNÇÕES DE PERDA

Faça Θ representar a quantia de impostos devida por John Q.


contribuinte. John é apenado com juros de l00a% por período por cada dólar de
imposto de renda que ele sonega e perde rendimentos em dinheiro de 100b% por
período por cada dólar de imposto que ele paga a maior. Como antes, façamos Θ$
ser o estimador de Θ de John, que representa o montante estimado de impostos
pagos por ele. Qual a função de perda de John para um período?

Solução

A função de perda é

(
 (
$ = a Θ − Θ
L Θ, Θ ) )
$ $
Θ>Θ
( )
b Θ$ − Θ $
Θ<Θ

Note-se que esta é uma generalização de Exemplo 3.3. Se a = b = 1,


então a função de perda acima é a função de perda erro absoluto da Seção 3.2.
Capítulo 3 – Funções de Perda 44

Exemplo 3.6

Calcule o valor esperado da função de perda no Exemplo 3.5, se a =


0,06, b = 0,02, Θ$ =10.000 e a função densidade de probabilidade de Θ é dada por

 1
 5.000 8.000 < θ < 13.000
h( θ) = 

 0 para outros valores.

Solução

Todos os cálculos estão em milhares de unidades monetárias.

[( )]
13

∫ (
$ = L θ, Θ$ ⋅ h(θ) dθ
E Θ L Θ, Θ )
8
10 13

= b∫ ( ) ∫ (
$ − θ ⋅ h( θ) dθ + a θ − Θ
Θ )
$ ⋅ h( θ) dθ
8 10

10 − θ θ − 10
10 13

= 0,02 ∫ dθ + 0,06∫ dθ = 0,062 ,


8
5 10
5

ou $62.

O exemplo seguinte usa uma função de perda conhecida como função de


perda 0 - 1. Aqui empregamos o conceito de uma regra de decisão,δ[Θ] , no lugar
de um estimador, Θ$ . Uma regra de decisão é um algoritmo para escolher entre dois
cursos alternativos de ação.

Exemplo 3.7

Seja

0 a<Θ <b
L(Θ,δ( Θ) ) = 
1 Θ ≤ a ou Θ ≥ b .
Capítulo 3 – Funções de Perda 45

Calcule a perda esperada se Θ têm uma distribuição normal padronizada


da função perda, sendo os parâmetros a = -1,645 e b = 1,645.

Solução


[ ]
a b

EΘ L( Θ, δ(Θ )) = ∫ 1 ⋅ h(θ)dθ + ∫ 0 ⋅ h(θ) dθ + ∫ 1 ⋅ h(θ) dθ


−∞ a+ b

= P[Θ ≤ a] + 0 + P[Θ ≥ b]
= 1 − P[a < Θ < b]
= 1 − P[ − 1,645 < Θ < 1,645] = 1 − 0,90 = 0,10.

Veja que isto representa a probabilidade de rejeitar a hipótese nula


H 0 : a < Θ < b , quando H 0 é verdadeira.

3.5 OBSERVAÇÕES ADICIONAIS

O conceito de uma função de perda estatística é importante, mas


infelizmente subutilizado. Um dos usos das funções de perda é ajudar na seleção do
"melhor" dentre vários modelos estocásticos alternativos. Deveriam ser empregadas
várias funções de perda diferentes para determinar a conveniência relativa de
modelos alternativos. Herzog [1990] mostra que diferentes funções de perda podem
conduzir a diferentes seleções de modelo. Berger [1985] argumenta que deveriam
ser empregadas funções de perda em vez de testes de significância dos
freqüentistas. Herzog [1990] adverte que "não se deveria aplicar mecanicamente
testes freqüentistas de significância sem observar cuidadosamente os dados e sem
decidir como deveriam eles ser melhor analisados." Finalmente, Berger [1985]
afirma que “uma diferença ‘estatisticamente significante’ entre o verdadeiro
parâmetro (ou o verdadeiro modelo) e a hipótese nula pode ser uma diferença
Capítulo 3 – Funções de Perda 46

praticamente sem importância. Igualmente uma diferença que não é


estatisticamente significante pode, não obstante, ser muito importante, na prática.“3

3
Veja página 27.
Capítulo 3 – Funções de Perda 47

3.6 EXERCÍCIOS

3.1 Funções de Perda Erro Quadrado

3-1 Supondo que a função de distribuição de Θ é contínua, elabore uma prova


alternativa para o Teorema 3.1 intercambiando a ordem de integração e
diferenciação.

3-2 Determine o estimador pontual Θ$ que minimiza o valor esperado da função de


perda do parâmetro de interesse, dadas as cinco observações l, -3, 4, 0, e -1.
Use a função de perda erro quadrado, e suponha que a média da distribuição a
posteriori do parâmetro é igual ao seu valor da amostra.

Resposta: 0,20

3-3 Calcule o valor esperado da função de perda erro quadrado, supondo θ$ = 0,20
(como no Exercício 3-2) e a função de densidade de probabilidade

1
 9 − 1≤θ≤ 8
f (θ) = 

 0 para outros valores.

Resposta: 17,64.

3-4 Calcule o valor mínimo esperado da função de perda erro quadrado, dada a
função densidade de probabilidade do Exercício 3-3 e as cinco observações
0,3 ; 2,l ; 6,4 ; -0,7 e 6,9.

Resposta: 7.
Capítulo 3 – Funções de Perda 48

3.2 Funções de Perda Erro Absoluto

3-5 Usando a função de perda erro absoluto, determine o estimador pontual Θ$ que
minimiza o valor esperado da função de perda do parâmetro de interesse,
dadas as observações do Exercício 3-2. Suponha que a mediana da
distribuição a posteriori do parâmetro é igual ao seu valor da amostra.

Resposta: 0.

3-6 Calcule o valor esperado da função de perda erro absoluto sob as condições de
Exercício 3-5, usando a função de densidade de probabilidade do Exemplo
3.3. Use o resultado θ$ = 0 do Exercício 3-5.

65
Resposta: .
18

3.3 Funções de Perda Quase Constantes

3-7 Calcule a perda esperada se (i) L(Θ , Θ$ ) é definida pela Equação (3.8) com c =
2, (ii) Θ têm uma distribuição binomial com parâmetros n = 8 e p, e (iii)
Θ$ = 4 .

[
Resposta: 2 1 − 70 p 4 (1 − p) .
4
]
3-8 Faça Θ ter a função de densidade de probabilidade do Exemplo 3.3 e a função
de perda do Exemplo 3.5 com a = 1 e b = 5. Calcule a esperança da função de
perda com Θ$ = 0 .

23
Resposta: .
6
Capítulo 3 – Funções de Perda 49

3.4 Outras Funções de Perda

3-9 Refaça o Exemplo 3.7 com a = -1,96 e b = 2,33.

Resposta: 0,035.

3-l0 Seja a função de perda a do Exemplo 3.5. Determine o estimador pontual


Bayesiano, Θ$ , que minimiza o valor esperado da função de perda. (Suponha
que o parâmetro Θ tem uma função de distribuição contínua.)

100a
Resposta: O percentil da distribuição de Θ (a posteriori).
a+b

3-ll Seja a função de perda aquela do Exemplo 3.5, com a = l e b = 2. Mostre que
o estimador pontual Bayesiano, Θ$ , que minimiza o valor esperado da função
1
de perda é o percentil 33 da distribuição a posteriori de Θ . (Suponha que o
3
parâmetro Θ têm uma função de distribuição contínua.) [Sugestão: Este é um
caso especial do Exercício 3-10.)

3.5 Observações Adicionais

3-12 Quais das declarações seguintes são verdadeiras?

I. Uma diferença estatisticamente significante pode, na prática, não ser


importante.

II. Uma diferença que não é estatisticamente significante nunca pode, na


prática, ser muito importante.

III. É normalmente apropriado usar uma única função de perda para selecionar
o melhor dentre vários modelos estatísticos alternativos.

Resposta: Somente a declaração I é verdadeira.


Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 50

CAPÍTULO 4

MODELO DISCRETO DE SEGURO DE

FREQÜÊNCIA-SEVERIDADE

SOB PRESSUPOSIÇÃO DE INDEPENDÊNCIA

Este capítulo apresenta um modelo simples de dois estágios de uma


operação de seguro, baseado nos Exemplos 2.2 e 2.3. Especificamente, supomos
que existe um único segurado, cuja experiência de sinistros é modelada da seguinte
forma. Primeiro, são selecionados, independente e aleatoriamente, um dado e uma
roleta. Então, usando-se a anotação de Capítulo 2,

[ ] [ ] [ ]
P Ai e B j = P Ai ⋅ P B j
 1  1 1 (4.1)
=    = ,
 2  2 4

para i = 1, 2 e j = 1, 2. (Uma vez selecionados, o dado e a roleta, que determinam


as características do risco do segurado, não são substituídos.) O processo aleatório
de sinistros se inicia quando o dado selecionado é jogado. Se uma face marcada
aparece, um sinistro aconteceu; caso contrário, não existe sinistro. Então, se existe
um sinistro, a roleta selecionada é girada para determinar o montante da
indenização. Cada jogada do dado e giro da roleta, se necessário, constitui um
único período de observação. Façamos Xi denotar a variável aleatória que
representa o montante (agregado) de indenizações durante o i-ésimo período de
observação, i = 1, 2, ... .
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 51

Neste capítulo, calcularemos primeiramente o prêmio puro (líquido)


inicial, E[ X 1 ] usando as probabilidades iniciais (i.e. a priori) P Ai e B j . Então, [ ]
observando-se o resultado do primeiro período de observação, calcularemos uma
estimativa revisada do prêmio puro, E[ X 2 X 1 ] , baseada nas probabilidades

[
revisadas (i.e. a posteriori) P Ai e B j X 1 conhecido o resultado do primeiro]
período de observação.

4.1 ESTIMATIVAS DO PRÊMIO PURO INICIAL

Uma vez que X 1 pode assumir somente os valores 0, 2 e 14 com


probabilidades positivas, podemos escrever E[ X 1 ] como

[ ] [ ] [
E X 1 = 0 ⋅ P X 1 = 0 + 2 ⋅ P X 1 = 2 + 14 ⋅ P X 1 = 14 . ] [ ] (4.2)

Recordando-se as definições de U1 e M 1 do Exemplo 2.2, encontramos

P[ X 1 = 0] = P[U 1 ]

[ ]
= P U1 A1 ⋅ P[ A1 ] + P U 1 A2 ⋅ P[ A2 ][ ] (4.3)
 5  1   1   1  2
=    +    = ,
 6  2   2   2  3

[
P[ X 1 = 2] = P M 1 e (S 1 = 2) ]
= P[ M 1 ] ⋅ P[S1 = 2 ]

([ ] [ ]
= P M 1 A1 ⋅ P[ A1 ] + P M 1 A2 ⋅ P[ A2 ])
× ( P[ S = 2 B ] ⋅ P[B ] + P[ S = 2 B ] ⋅ P[B ])
1 1 1 1 2 2

  1   1   1   1    5  1   1   1  
=      +      ×     +     
  6   2   2   2    6  2   2   2  
2 (4.4)
= .
9
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 52

Finalmente,

[ ] [ ] [
P X 1 = 14 = 1 − P X 1 = 0 − P X 1 = 2 ]
2 2 1 (4.5)
= 1− − = .
3 9 9

As probabilidades iniciais (a priori) obtidas acima estão resumidas na


coluna (2) da Tabela 4.1, mostrada na página 41.

TABELA 4.1

ESTIMATIVA DO PRÊMIO PURO INICIAL

(1) (2) (3)

Valor de x Probabilidade Inicial x * P[X1 = x]

P[X = x] (1) x (2)

0 6/9 0

2 2/9 4/9

14 1/9 14/9

Totais 1 2

Somando-se os valores nas coluna (3) da Tabela 4.1, encontramos a


estimativa inicial do prêmio puro, representada por E[X1 ] = 2.
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 53

Podemos também escrever E[X1 ] como

[ ] [ ] [ ]
2 2

E X 1 = ∑ ∑ E X 1 Ai e B j ⋅ P Ai e B j , (4.6)
i =1 j =1

[ ]
onde E X 1 Ai e B j é a média dos montantes de indenizações, dado o par de

eventos Ai e B j . Por seu turno, essa esperança é igual ao produto de (a) a média
do número de sinistros, e (b) a média do montante das indenizações, dado que um
sinistro acontece. Simbolicamente, isto é expresso por

[ ] [ ] [
E X 1 Ai e B j = E I 1 Ai ⋅ E S1 B j , ]
onde,

1 se o primeiro lançamento do dado produz um lado marcado


I1 =  para outros casos .
0

Dessa forma, temos que E[ I 1 Ai ] = P[ M 1 Ai ] . A partir dos Exemplos 2.2 e


2.3, obtemos os resultados mostrados na Tabela 4.2 da página 42. Substituindo-se
os valores dos prêmios puros da coluna (4), juntamente com as probabilidades

[
P Ai e B j = ] 1
4
, na Equação (4.6) acima, obtemos novamente o resultado da

[ ]
E X1 = 2 .
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 54

TABELA 4.2

PRÊMIO PURO POR TIPO DE DADO E DE ROLETA

(1) (2) (3) (4)

Tipo de dado Freqüência Severidade [


E X 1 Ai e B j ]
e roleta [
E I 1 Ai ] [
E S1 B j ] (2) x (3)

A1 e B1 1/6 4 2/3

A1 e B2 1/6 8 4/3

A2 e B1 1/2 4 2

A2 e B2 1/2 8 4

4.2 ESTIMATIVAS DO PRÊMIO PURO REVISADO E DISTRIBUIÇÕES


PREDITIVAS

Nesta seção estimaremos o prêmio puro para o segundo período de


observação, conhecido o resultado do primeiro período. Simbolicamente, buscamos
os valores de E[ X 2 X 1 = k ] , para k = 0, 2, e 14. O método desta solução também
produz as probabilidades condicionais de X2, dado o valor de Xl. Estas
probabilidades condicionais constituem a distribuição preditiva da variável
aleatória X2, dado o valor da variável aleatória Xl.
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 55

Desde que (a) apenas um dado tem sido escolhido, o resultado de cada
lance daquele dado é independente dos resultados de todos os outros lances, e (b)
uma vez que uma roleta tem sido selecionada, o resultado de cada giro daquela
roleta é independente dos resultados de todos os outros giros, então a variável
aleatória X2 depende somente do resultado do primeiro período de observação
expresso pelas probabilidades conjuntas de Ai e Bj. Em outras palavras, o único
efeito é o determinado pela probabilidades revisadas do conjunto dado-roleta

[
P Ai e B j X 1 = k .]
Por analogia com a Equação (4.2), podemos escrever

[ ] [ ] [ ] [
E X 2 X 1 = k = 0 ⋅ P X 2 = 0 X 1= k + 2 ⋅ P X 2 = 2 X 1= k + 14 ⋅ P X 2 = 14 X 1= k ],
para k = 0, 2, e 14. Nossa meta é calcular a esperança condicional do montante de
indenizações (prêmio puro) para o segundo período de observação, após termos
observado uma indenização de montante igual a k durante o primeiro período de
observação. Pelas razões mostradas na seção precedente, podemos escrever

[ ] [ ] [ ]
2 2

P X 2 = m X 1 = k = ∑ ∑ P X 2 = m Ai e B j × P Ai e B j X 1 = k ,
i = 1 j =1

para m = 0, 2 e 14. O leitor deveria notar que o resultado

[ ] [
P X 2 = m Ai e B j = P X 1 = m Ai e B j ]
decorre das condições do modelo.

[
Calculamos primeiro as probabilidades P X 1 = m Ai e B j , começando ]
com m = 0. Neste caso temos
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 56

[ ] [ ] [
P X 1 = 0 Ai e B j = P X 1 = 0 Ai = P U 1 Ai . ] (4.9)

Os valores de P[U1 A1 ] = = [ ]
5 30 1 18
e P U 1 A2 = = já são conhecidos.
6 36 2 36

Logo, consideramos P[ X 1 = 2 Ai e B j ] . Sabemos que

[ ] [ ] [
P X 1 = 2 Ai e B j = P M 1 Ai ⋅ P S1 = 2 B j , ] (4.10)

assim, esses valores podem ser calculados facilmente, como mostrado na Tabela
4.3.

TABELA 4.3

[
P X 1 = 2 Ai e B j ]
(1) (2) (3) (4)

Tipo de dado [
P M 1 Ai ] [
P S1 = 2 B j ] [
P X 1 = 2 Ai e B j ]
e roleta
(2) x (3)

A1 e B1 1/6 5/6 5/36

A1 e B2 1/6 1/2 3/36

A2 e B1 1/2 5/6 15/36

A2 e B2 1/2 1/2 9/36


Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 57

O cálculo de P[ X 1 = 14 Ai e B j ] é deixado como exercício para o leitor no

Exercício 4-2. Os resultados da Equação (4.9), Equação (4.10), e Exercício 4-2


estão resumidos na Tabela 4.4. Note que os resultados para a coluna m = 2 vêem
da coluna (4) da Tabela 4.3.

TABELA 4.4

PROBABILIDADE DAS INDENIZAÇÕES RESULTANTES,

CONHECIDOS O DADO E A ROLETA

[
P X 1 = m Ai e B j ]
(1) Valor de m

Tipo de dado 0 2 14 Total

e roleta

A1 e B1 30/36 5/36 1/36 1

A1 e B2 30/36 3/36 3/36 1

A2 e B1 18/36 15/36 3/36 1

A2 e B2 18/36 9/36 9/36 1

Para operacionalizar o lado direito da Equação (4.8), necessitamos dos

[ ]
valores de P Ai e B j X 1 = k para k = 0, 2, e 14. A partir do teorema de Bayes,

obtemos
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 58

[ ] [
P X 1 = k Ai e B j ⋅ P Ai e B j ].
[
P Ai e B j X 1 = k = ] [
P X1 = k ]
(4.11)

Posto que [ ] 1
(a) P Ai e B j = para todo i e j, (b) os valores das
4

probabilidades iniciais P[ X 1 = k ] estão determinados na coluna (2) da Tabela 4.1, e

[ ]
(c) os valores de P X 1 = k Ai e B j estão dados na Tabela 4.4, podemos facilmente

[ ]
calcular P Ai e B j X 1 = k , para k = 0, 2, e 14. Por exemplo, a Equação (4.11) produz

[
P X 1 = 14 A1 e B2 ⋅ P[ A1 e B2 ]]
[
P A1 e B2 X 1 = 14 = ] P[ X 1 = 14]
 3  1
  
 36   4  3
= = .
1 16
9

Todos os resultados da Equação (4.11) estão resumidos na tabela


seguinte.

TABELA 4.5

DISTRIBUIÇÃO A POSTERIORI DAS


COMBINAÇÕES DE DADO-ROLETA
[
P Ai e B j X 1 = k ]
(1) Valor de k
Tipo de dado
e roleta 0 2 14
A1 e B1 5/16 5/32 1/16
A1 e B2 5/16 3/32 3/16
A2 e B1 3/16 15/32 3/16
A2 e B2 3/16 9/32 9/16
Totais 1 1 1
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 59

As Tabelas 4.4 e 4.5 mostram os resultados para o cálculo das


probabilidades de condicionais da Equação (4.8). Por exemplo

[ ] [ ] [ ]
2 2

P X 2 = 2 X 1 = 14 = ∑ ∑ P X 2 = 2 Ai e B j ⋅ P Ai e B j X 1 = 14
i = 1 j =1

 5  1   3  3 
=    +   
 36  16   36   16
 15   3   9   9 
+    +   
 36  16   36   16
35
= .
144

A Tabela 4.6 resume os valores das probabilidades condicionais de X2


dado Xl. Esses valores constituem a distribuição preditiva da variável aleatória X2,
conhecido o valor de Xl. Isto é, conhecido o resultado do primeiro período de
observação, a coluna apropriada da Tabela 4.6 dá a probabilidade de cada possível
resultado para o segundo período.

TABELA 4.6

DISTRIBUIÇÃO PREDITIVA DE X2 DADO X1


[
P X 2 = m X1 = k ]
Valor de k
m 0 2 14
0 51/72 168/288 84/144
2 14/72 85/288 35/144
14 7/72 35/288 25/144
Totais 1 1 1
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 60

Finalmente, podemos usar Equação (4.7) e as caselas da Tabela 4.6 para


calcular as expectativas condicionais de X2, dado Xl. Por exemplo, para k = 2,

[ ] [
E X 2 X1 = 2 = 2 ⋅ P X 2 = 2 X 1 = 2 ]
[
+ 14 ⋅ P X 2 = 14 X 1 = 2 ]
 85   35  55
=2⋅  + 14 ⋅  = .
 288  288  24

Os resultados para os três valores de k são dados na tabela seguinte.

TABELA 4.7

K [
E X2 X1 = k ]
0 42/24

2 55/24

14 70/24

Uma abordagem alternativa para encontrar E[ X 2 X 1 = k ] é calcular

diretamente as probabilidades conjuntas P[ X 2 = m e X 1 = k ] , e então obter as


caselas da Tabela 4.6 usando a definição de probabilidade condicional

[
P X2 = m e X1 = k ]
[
P X 2 = m X1 = k = ] (4.12)
[ ]
.
P X1 = k
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 61

4.3 OBSERVAÇÕES ADICIONAIS

O leitor deveria comparar as estimativas de probabilidade a priori da


Tabela 4.1 com as estimativas de probabilidade da distribuição preditiva dadas na
Tabela 4.6. O leitor também deveria comparar a estimativa do prêmio puro inicial
de E[ X 1 = 2] com aquelas da Tabela 4.7, e notar como o montante de indenizações
do primeiro período de observação modifica o montante de indenizações esperado
no segundo período.

Neste trabalho, a distribuição preditiva se refere somente àquela


variável aleatória dados os resultados prévios de uma ou mais variáveis aleatórias,
como na Tabela 4.6. Usamos o termo distribuição a posteriori para se referir a
outras distribuições condicionais, como as que envolvem um ou mais parâmetros.
Por exemplo, para obtemos a distribuição preditiva de X m+ 1 , dados os resultados
prévios das variáveis aleatórias X 1 , X 2 , K , X m . Para obter esta distribuição, temos
que calcular a distribuição a posteriori do parâmetro Θ , dados os resultados
prévios das variáveis aleatórias X 1 , X 2 , K , X m .

A noção da distribuição de um parâmetro é uma diferença crucial entre o


paradigma Bayesiano e o paradigma freqüentista. No paradigma Bayesiano, cada
parâmetro é considerado uma variável aleatória com uma distribuição de
probabilidade. Por contraste, sob o paradigma freqüentista, cada parâmetro é
entendido como uma quantidade fixa, mas desconhecida. Então, sob o paradigma
freqüentista, buscamos tipicamente uma estimativa pontual ou um intervalo de
confiança para cada parâmetro, mas não uma completa distribuição de
probabilidade.
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 62

Neste capítulo, usamos o resultado observado da variável aleatória X1


para modificar a distribuição conjunta a priori das variáveis aleatórias A e B. O
resultado foi a distribuição conjunta a posteriori das variáveis aleatórias A e B.
Usamos então esta distribuição conjunta a posteriori para calcular a distribuição
condicional (ou preditiva) de X2 conhecido Xl. Sob o paradigma Bayesiano,
podemos considerar que A e B são parâmetros, semelhantes ao parâmetro θ
discutido acima. Aplicações adicionais do paradigma Bayesiano são apresentadas
no Capítulo 8.
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 63

4 4 EXERCÍCIOS

4.1 Prêmio Puro Inicial

4.2 Estimativas do Prêmio Puro Revisado e Distribuições Preditivas

[ ] [
4-1 Mostre que P X 2= m Ai e B j = P X 1= m Ai e B j . ]
[ ]
4-2 Verifique os resultados para P X 1= 14 Ai e B j mostrados na Tabela 4.4.

4-3 Calcule P[ A1 X 2 = 0 e X 1 = 0]

25
Resposta: .
34

4-4 Calcule P[ B2 X 2 = 0 e X 1 = 0]

Resposta: 0,50.

4-5 Calcule P[ A1 e B2 X 2 = 0 e X 1 = 0]

25
Resposta: .
68

4-6 Mostre que P[ X 2 = 14 X 1 = 2] =


35
288

4-7 Mostre que E[ X 2 X 1 = 0] = [ ]


42 70
e E X 2 X 1 = 14 =
24 24

4-8 Calcule E [ X 3 X 2 = 0 e X 1 = 0]

26
Resposta: .
17
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 64

4-9 Calcule Var(X1), a variância incondicional de Xl.

56
Resposta: .
3

4-l0 Calcule Var( X 2 X 1 = k ) para k = 0, 2 e 14. Esta é a variância condicional de X2


dado X1 = k.

Respostas: 16,77; 19,75; 26,49.

4-11 Usando somente as informações contidas nas tabelas 4.1 e 4.7, mostre que
E[X2] = 2. (já foi mostrado no texto que E[X1]=2).

4-12 Selecionamos uma de duas moedas com probabilidade 0,50. Uma das moeda
é honesta com um lado que tem “cara” e o outro “coroa”; a segunda moeda
tem caras em ambos os lados.

(a) Para n > 0, calcule a probabilidade que o (n+1)-ésimo lance será coroa
dado que os primeiros n lances são todos caras. [Note que uma moeda é
selecionada, sendo lançada ao longo de todo o processo, sem ser
substituída.]

(b) Calcule o limite, à medida que n → ∞ , do resultado da parte (a).

(c) Calcule a variância (condicional) da variável indicador, 0 ou 1, para o


evento descrito na parte (a).

(d) Calcule o limite, à medida que n → ∞ , do resultado obtido na parte (c).

2 n +1 + 1 2 n +1 + 1
Repostas: (a) n +1 (b) 1 (c) (d) 0.
2 +2 (2 n+ 1
+ 2)
2
Capítulo 4 – Modelo Discreto de Seguro de Freqüência-Severidade 65

4.3 Observações adicionais

4-13 (a) Representa F ( x 2 X 1 = x1 ) uma distribuição a posteriori ou uma


distribuição preditiva? Explique.

(b) Representa F(θ X 1 , X 2 ) uma distribuição a posteriori ou uma distribuição


preditiva? Explique.

Resposta: (a) Distribuição preditiva. (b) Distribuição a posteriori.

4-14 (a) Como é tratado um parâmetro sob o paradigma freqüentista da


Estatística?

(b) Como é tratado um parâmetro sob o paradigma Bayesiano da Estatística?

Resposta: (a) Como um valor fixado, porém desconhecido.

(b) Como uma variável aleatória que possui uma completa


distribuição de probabilidades.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 66

CAPÍTULO 5

A ABORDAGEM DE CREDIBILIDADE DE

FLUTUAÇÃO LIMITADA

5.1 INTRODUÇÃO

A meta da abordagem de flutuação limitada é achar um estimador de


compromisso, C, da forma,

C = ZR + ( 1 − Z ) H , (1.1)

como definido no Capítulo 1. A abordagem de credibilidade de flutuação limitada é


uma das mais antigas, remontando pelo menos a Mowbray [1914] e Perryman
[1932]. Tratamentos mais modernos são encontrados em Longley-Cook [1962] e no
Capítulo 8 de Hossack, Pollard, e Zehnwirth [1983]. Fora da América Norte, esta
abordagem é algumas vezes chamada de "credibilidade americana."

Começamos este capítulo com alguns pré-requisitos matemáticos na


Seção 5.2, que são necessários para produzir os resultados principais do capítulo.
Sob a abordagem de flutuação limitada para credibilidade plena, descrita na Seção
5.3, são usados modelos freqüentistas para determinar o número esperado de
reivindicações, λF , requerido para a credibilidade plena. Igualmente, sob a
abordagem de flutuação limitada para credibilidade parcial, descrita na Seção 5.4,
são usados métodos freqüentistas para determinar o fator de credibilidade Z. A
Seção 5.5 conclui o capítulo com uma discussão breve das vantagens e
desvantagens desta abordagem para credibilidade.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 67

5.2 PRÉ-REQUISITOS MATEMÁTICOS

Seja N uma variável aleatória representando o número de sinistros de um


portfólio de seguros. Assim, N somente pode assumir valores não negativos com
probabilidades positivas, de forma que

∑ P[ N = i] = 1 (5.1)
i= 0

Para i = 1, 2,..., sejam Xi uma variável aleatória representando o


montante do i-ésimo sinistro e S uma variável aleatória representando o montante
de indenizações agregadas, de forma que

S = ∑ Xi (5.2)
i =1

Então, temos o seguinte importante teorema.

Teorema 5.1

Se os vários valores de Xj são mutuamente independentes com idênticos


primeiro e segundo momentos, e se o número de sinistros, N, é independente dos
montantes, então o valor esperado da variável aleatória S é determinado por

[ ]
E [S ] = E [ N ] ⋅ E X 1 . (5.3a)

Demonstração

Escrevemos primeiro S como a soma aleatória de N variáveis aleatórias,


de forma que
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 68

S=∑Xj ,
j =1

Então,

[ ]
N

E [S ] = ∑ E X j
j= 1

Pelo Teorema 2.3, trocando-se Ai por N = i, obtemos

N  ∞ N 
E [S ] = E ∑ X j  = ∑ P[ N = i ] ⋅ E ∑ X j N = i 
 j =1  i =0  j =1 

 i 
= ∑ P[ N = i ] ⋅ E ∑ X j 
i =0  j =1 

[ ]
∞ i

= ∑ P[ N = i ] ⋅ ∑ E X j
i =0 j =1

= ∑ P[ N = i ] ⋅ i ⋅ E[ X 1 ]
i =0

= ∑ i ⋅ P[ N = i ] ⋅ E[ X 1 ]
i =0

= E[N ]⋅ E[X1 ] .

Exemplo 5.1

Seja N uma variável aleatória com distribuição de Poisson com média 5,


e seja Xi , para i = 1, 2,..., que tem uma distribuição normal com média 30 e
variância 7. Sejam o N e o Xi mutuamente independentes. Use o Teorema 5.1 para
N

achar a média S = ∑ X i .
i =1

Solução

Uma vez que N é Poisson, então E[N] = Var(N) = 5. Também nos são
dados os valores E[X1] = 30 e Var(X1) = 7. Pela Equação (5.3a) temos
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 69

[ ]
E [ S ] = E[ N ] ⋅ E X 1 = ( 5)( 30) = 150 .

Teorema 5.2

Se X e Y são variáveis aleatórias, então,

[ ]
Var( Y ) = E X VarY (Y X ) + VarX ( EY [Y X ]).

Demonstração

[ ] [ [ ]]
E X VarY (Y X ) = E X E Y Y 2 X − E X ( EY [Y X ]) [ 2
]
[
= EY [Y 2 ] − E X ( EY [Y X ])
2
]
Agora somamos e subtraímos ( E Y [Y ] 2 ) no lado direito desta última
equação, obtendo

2
{ [(
E Y [Y 2 ] − ( E Y [Y ]) − E X E Y [Y X ] ) 2
] − ( E [Y ] )} Y
2

{ [(
= VarY (Y ) − E X E Y [Y X ] ) ] − ( E [ E [Y X ]])
2
X Y
2
}
= VarY (Y ) − Var X ( E [Y X ]) .
Y

Mostramos agora que

[ ]
E X VarY (Y X ) = VarY ( Y ) − VarX (E Y [Y X ]) ,

que é equivalente à

[ ]
VarY ( Y ) = EY VarY (Y X ) + VarX ( EY [Y X ]) .
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 70

Teorema 5.3

Sob as mesmas condições e notação do Teorema 5.1,

(
Var( S ) = E[ N ] ⋅ Var ( X 1 ) + Var ( N ) ⋅ E [ X 1 ] ) 2
. (5.3b)

Demonstração

Aplicando o Teorema 5.2 aplicando com Y = S e X = N, obtemos

[ ] (
Var( S ) = E N Var( S N ) + VarN E N [ S N ] )
  N   N 
= E N Var  ∑ X i N   + VarN  E  ∑ X i N 
  i =1    i= 1 
[ ] (
= E N N ⋅ Var( X 1 ) + VarN N ⋅ E [ X 1 ] )
(
= E N [ N ] ⋅Var ( X 1 ) + VarN ( N ) ⋅ E[ X 1 ] )
2
.

Exemplo 5.2

Usando a notação e as suposições do Exemplo 5.1, calcule Var(S).

Solução

A partir da Equação (5.3b), temos

( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2

= ( 5)( 7) + ( 5)( 30) 2


= 4535 .
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 71

5.3 A ABORDAGEM DE CREDIBILIDADE PLENA

5.3.1 A lógica para a Credibilidade Plena

Grandes segurados que possuem uma experiência favorável de sinistros,


desejam usualmente que os seus futuros prêmios de seguro sejam baseados somente
nas suas próprias experiências, procedimento este que chamamos de
credibilidade plena. Então a pergunta que surge naturalmente indaga quando é que
a experiência do segurado é grande o suficiente para permitir a credibilidade plena
(i.e., Z = 1). Nesta abordagem, “a experiência” está especificamente medida pelo
número esperado de sinistros durante o próximo período de observação. Sob a
abordagem de flutuação limitada, a resposta para a pergunta concernente à
credibilidade plena está nas linhas seguintes e usa a anotação e as suposições do
Teorema 5.1. Como mencionado no Capítulo 1, a abordagem de flutuação limitada
é uma aplicação do paradigma freqüentista.

5.3.2 A Fórmula de Credibilidade Plena

A suposição básica é que o segurador está disposto a impor a


credibilidade plena ao estimador agregado de sinistros, S, baseado somente nos
dados observados, desde que S esteja, com probabilidade 1 − α , dentro do intervalo
delimitado pelos dois pontos afastados 100c% para cima e para baixo do verdadeiro
valor, s. Simbolicamente, queremos

P[( 1 − c) s < S < (1 + c) s] = 1 − α (5.4a)

ou

 − cs S−s cs 
P < <  = 1−α . (5.4b)
 Var ( S ) Var ( S ) Var ( S ) 
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 72

Neste contexto, c é chamado o parâmetro de intervalo e (1 − α) , sendo o


nível de probabilidade.

Sob a abordagem de flutuação limitada, supõe-se também que N tem uma


distribuição de Poisson. Façamos λ representar a média de N. Para uma variável
aleatória de Poisson sabemos que Var( N ) = E [ N ] = λ . Como demonstrado no
Teorema 5.1, o valor esperado e a variância da severidade das perdas, Xi , são
presumidas constantes para todos os valores de i, e são representadas por

[ ]
E Xi = m (5.5a)

Var( X i ) = σ 2 , (5.5b)

respectivamente. Então, pela Equação (5.3a) temos

[ ]
E [ S ] = E[ N ] ⋅ E X 1 = λm (5.6a)

e, pela Equação (5.3b) temos

( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2

(5.6b)
= λσ2 + λm2 = λ(σ2 + m2 ) .

De acordo com o Teorema de Limite Central1, e se a experiência é

razoavelmente grande, então a variável aleatória (S − s ) é distribuída


Var (S )

aproximadamente como uma variável aleatória normal com zero média e desvio
padrão igual a 1. Então, da Equação (5.4b) temos

1
Veja, por exemplo, a página 193 de Hogg e Craig [1978].
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 73

cs
= xα ,
Var ( S )

onde x∝, é o ponto na curva normal padronizada, de tal forma que a área entre − xα
e xα , é igual a 1 − α .

Substituindo s por λm e Var(S) por λ(σ 2 + m2 ) na Equação (5.7)


obtemos

cλm
= xα ,
λ(σ 2 + m2 )

ou, rearrumando os termos,

λ xα
= .
 σ c
2

1+  
 m

Então, elevando ao quadrado ambos os lados e resolvendo para λ ,


obtemos no caso geral

xα2   σ 2 
λ = λF = 1 +    , (5.8)
c2  m 

onde λF é o número mínimo de sinistros esperados durante o próximo período de


observação requerido para credibilidade plena. A razão entre o desvio padrão e a
σ
média, , é chamada de coeficiente de variação.
m
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 74

5.3.3 Exemplos Numéricos

Exemplo 5.3

Mostre como determinar λF e c = 0,03 e 1 − α = 0,95 .

Solução

As equações (5.4a) e (5.4b), respectivamente, produzem

P[ 0,97 s < S < 1,03s]

 − 0,03s S−s 0,03s 


P < <  = 0,95 .
 Var ( S ) Var( S ) Var ( S ) 

De uma tabela de valores normais unificados obtemos xα = 1,96 , então de


Equação (5.8) temos

 1,96    σ     σ 2 
2 2

λF =   1 +   = 42681 +   
 0,03   m    m 

O valor do coeficiente 4268 no Exemplo 5.2 é um resultado direto da


escolha do parâmetro de intervalo c = 0,03 e do nível de probabilidade (1 − α) = 0,95 .
Ambas as escolhas são arbitrárias. Deve ficar claro para o leitor que, na
determinação do número esperado de sinistros requerido para credibilidade plena,
estamos apenas determinando o tamanho de amostra requerido para produzir um
intervalo com confiança 100(1 − α) % .

Exemplo 5.4

Mostre que se Xi = d, uma constante positiva, para todo i = l, 2. . ., de


forma que
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 75

P[Xi = d] = 1, então o coeficiente de variação da distribuição da severidade da


perda (i. e., montante de indenização) é zero.

Solução

Uma vez que todos os montantes de indenizações são constantes, tem-se


σ
que um σ = Var ( X i ) = 0 , e o coeficiente de variação, , é também igual a zero.
m

Exemplo 5.5

Mostre que se P[Xi = d] = 1 para i = 1, 2. . ., então o número mínimo de


x α2
sinistros esperados requerido para credibilidade plena é 2 .
c

Solução

σ
Como = 0 , o segundo fator do lado direito da equação (5.8) é igual a 1.
m
Então nos resta

xα2
λF = 2 (5.9a)
c

como o número mínimo de sinistros esperados requerido para a credibilidade plena,


no caso em que estamos somente preocupados com a freqüência dos sinistros.
Usamos λ0 para representar este resultado, assim temos

x α2
λ0 = . (5.9b)
c2
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 76
Exemplo 5.6

Um padrão de credibilidade plena é empregado, requerendo-se que o


número total de sinistros esteja dentro de 5% do número esperado, com uma
probabilidade de 98%. Se o padrão de credibilidade plena determinado for aplicado
ao custo total dos sinistros, então o custo total real estaria dentro de 100c% do
custo esperado com 95% probabilidade. Supondo que o coeficiente de variação da
distribuição de severidade da perda é 0,894 e que a distribuição de perdas
agregadas pode ser aproximada pela distribuição normal, determine o valor de c.

Solução

Na primeira situação, onde só nos preocupamos com o número de


sinistros, os parâmetros são c = 0,05 e xα = 2,327 . Então, a partir da Equação (5.9b)

 2 ,327 
2

decorre que λ0 =   . Na segunda situação onde nos preocupamos com o custo


 0,05 

 σ
agregado das indenizações, temos x 0 = 1,96 e   − 0,894 . Então através de
 m

Equação (5.8), encontramos

 1,96 
[ ]
2
6,912
λF =   1 + (0,894) =
2

 c 
,
c2

Considerando-se que o padrão de credibilidade plena é o mesmo em


ambos as situações, temos

6,912
= 2.165,972 ,
c2

a partir do qual encontramos c = 0,0565.


Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 77

5.3.4 Número Mínimo de Sinistros Esperados


Requerido para Credibilidade Plena

xα2
Valores da razão λ0 = 2 , para vários pares de c e 1 − α , estão registrados
c
na Tabela 5.1. Estes valores mostram o número mínimo de sinistros esperados para
credibilidade plena baseada somente no componente freqüência de sinistro (i. e.,
ignorando a severidade de perda de reivindicações). A entrada de 1082,
correspondendo ao par de valores de parâmetro c = .05 e (1 − α) = 0,90 ,
freqüentemente é citado na literatura atuarial como o número mínimo de sinistros
esperados para credibilidade plena.

TABELA 5.1

VALORES DE λ0

Nível de Parâmetro de Intervalo, c


Probabilidade,
0,30 0,20 0,10 0,05 0,01
1−α

0,900 30 68 271 1.082 27.060

0,950 43 96 384 1.537 38.416

0,990 74 166 664 2.654 66.358

0,999 120 271 1.083 4.331 108.274


Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 78

5.3.5 Resumo da Abordagem de Credibilidade Plena

Meta: Para determinar λF , o número mínimo de sinistros esperados


durante o próximo período de observação requerido para
credibilidade plena:

Passo 1: Selecione o parâmetro de intervalo, c.

Passo 2: Selecione o nível de probabilidade, 1 − α

Passo 3: Calcule o valor do coeficiente de variação para a distribuição da


severidade da perda .

Passo 4: Use a equação (5.8) para calcular λF .

Suposição 1: O número de reivindicações, N, tem uma distribuição de


Poisson

Suposição 2: A média e a variância da severidade da perda, Xi, é


constante para todos os valores de i.

Suposição 3: O Teorema do Limite Central aplica-se ao caso.

5.4 A ABORDAGEM DE CREDIBILIDADE PARCIAL

5.4.1 A Lógica da Credibilidade Parcial

Para alguns seguradores, o número de reivindicações esperados durante o


próximo período de observação, λ , é insuficiente utilizar-se a credibilidade plena
de Z = 1. Neste caso, precisamos determinar o valor apropriado do fator de
credibilidade parcial Z < 1. Mostra-se adiante que o fator de credibilidade neste
λ
caso é igual à , onde λF é especificado pela Equação (5.8).
λF
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 79

5.4.2 A Fórmula de Credibilidade Parcial

A suposição básica neste caso é que o estimador ZS deve estar no


intervalo [Zs – cs , Zs + cs] com probabilidade 1 − α . Simbolicamente, requer-se

P[( Zs − cs) < Zs < ( Zs + cs) ] = 1 − α (5.10a)

ou, equivalentemente,

 − cs S −s cs 
P < <  = 1− α . (5.10b)
 Z Var ( S ) Var ( S ) Z Var ( S ) 

À semelhança da seção anterior, se a experiência é suficientemente


grande que nós podemos apelar para o Teorema de Limite Central, e assim assumir
S −s
que a variável aleatória é aproximadamente distribuída como uma variável
Var ( S )

aleatória normal padronizada. Então da Equação (5.10b), temos

cs
= xα . (5.11)
Z Var( S )

onde xα é como se definiu na Seção 5.3. Substituindo λm por s e λ(σ 2 + m2 ) para


Var(S) em Equação (5.11), obtemos

cλm
= xα . (5.12)
Z λ(σ2 + m2 )

Resolvendo para Z, obtemos


Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 80

λ
Z= .
 σ
2

1+  
c  m

Mas, pela Equação (5.8), o denominador do lado direito da Equação


(5.12) é λF , assim podemos reescrever a Equação (5.12) como

λ
Z= . (5.13)
λF

Portanto, o fator de credibilidade (parcial), Z, é igual à raiz quadrada da


razão entre o número esperado de sinistros para o risco em estudo, λ , e o número
mínimo esperado de sinistros requerido para credibilidade plena, λF .

5.4.3 Exemplo de Credibilidade Parcial

Exemplo 5.7

A seguinte informação para um grupo de segurados está disponível:

Estimativa a priori das perdas totais 20.000.000

Perdas totais observadas 25.000.000

Número esperado de sinistros durante o próximo período 10.000

Número mínimo de sinistros para a credibilidade plena 17.500

Usando a fórmula de credibilidade parcial especificada pela Equação


(5.13), estimativa S, as perdas agregadas para o grupo durante o próximo período
de observação.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 81

Solução

Primeiro, calculamos Z da Equação (5.13), obtendo

λ 10.000
Z= = = 0,756 .
λF 17.500

Então, da Equação (1.1), com C substituiu por S, achamos

S = ZR + (1 − Z ) H
= ( 0,756 − 25.000.000) + (0,244 ⋅ 20.000.000)
= 23.780.000

5.4.4 Resumo da Abordagem de Credibilidade Parcial

Meta: calcular o fator de credibilidade parcial, Z.

Passo 1: Selecione o parâmetro de intervalo, c.

Passo 2: Selecione o nível de probabilidade, 1 − α .

Passo 3: Calcule o valor do coeficiente de variação para a distribuição de


severidade das perdas.

Passo 4: Use Equação (5.8) calcular λF .

Passo 5: Calcule o número de reivindicações, λ , esperado durante o


próximo período de observação.

Passo 6: Use a Equação (5.13) para calcular Z, impondo-se, é claro, que


λ < λF .

Suposição 1: O número de reivindicações, N, tem uma distribuição de


Poisson.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 82

Suposição 2: A média e a variância da severidade da perda, Xi, são


constantes para todos os valores de i.

Suposição 3: O Teorema de Limite Central aplica-se ao caso.

5.5 OBSERVAÇÕES ADICIONAIS E RESUMO

Este capítulo descreveu a abordagem de flutuação limitada para as duas


versões de credibilidade, plena e parcial, resumida nas Seções 5.3.5 e 5.4.4,
respectivamente. A vantagem principal da abordagem de flutuação limitada é que
ela é relativamente simples de usar.

As desvantagens principais desta abordagem são as seguintes:

(1) O mesmo peso, 1 - Z, é dado à média a priori, H, independentemente


do conhecimento do analista sobre a precisão de H.

(2) De acordo com Sundt [1991], há uma inconsistência interna na


abordagem de flutuação limitada para a credibilidade plena. Ele
observa que o critério para substituir a taxa de prêmio velha está
baseado na suposição de que a taxa de prêmio velha está correta. Isto
conduz ao seguinte enigma: se a taxa de prêmio velha está correta,
então por que substituí-la? Sundt conclui com a seguinte observação,
“Isto parece ser o detalhe mais obscuro contido na credibilidade de
flutuação limitada."2

(3) Nenhum peso é dado à média a priori, H, e todo o peso é aplicado


nos dados observados, R, no caso de credibilidade plena. Isto suscita
a questão na filosófica se faz sentido falar em credibilidade plena
(i.e., 100%) sabendo-se podem geralmente ser obtidos. Alguns

2
Veja página 145.
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 83

atuários acreditam que nenhum conjunto de dados comporta


credibilidade plena, de forma que a curva de credibilidade deveria se
aproximar assintoticamente de 1, sem nunca alcançá-lo.

Venter [1986] 3 estende a discussão da abordagem de flutuação limitada


eliminando a suposição que o Teorema de Limite Central se aplica ao modelo.
Nada obstante, esta extensão sofre do mesmo failings como faz a aproximação
básica aqui apresentou.

3
Veja página 409-416
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 84

5.6 EXERCÍCIOS

5. 1 Introdução

5.2 Pré-requisitos Matemáticos

5-1 Usando a notação do Teorema 5.1. mostre que

 N 2
[ ]
E ∑ X j  = E [ N ] ⋅ E X 12 .
 j =1 

5-2 Usando a notação e as premissas do Teorema 5.1, mostre que

N N 
( ) ( [ ]
E ∑ ∑ X j X k  = E[ X 1 ] ⋅ E N 2 − E[ N ] .

)
2

j =1 k =1
 j ≠ k 

5-3 Usando a anotação, as premissas e os resultados dos Exercícios 5-1 e 5-2,


mostre que

( [ ])
Var( S ) = E[ N ] ⋅ Var( X 1 ) + Var ( N ) ⋅ E X 1
2
.

Sugestão:

N 
 N  
2

E [ S ] = E   ∑ X i   = E ∑ X j + ∑ ∑ X j X k  .

N N
2 2

  i =1    i =1 j =1 k =1
j ≠k 

5.3 A Abordagem de Credibilidade Plena

5-4 Qual é o padrão para a credibilidade plena da freqüência de sinistro que


corresponde a um 90% nível de probabilidade e um parâmetro de intervalo de
5%?
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 85

Resposta: 1.082.

5-5 Qual é o número mínimo requerido de sinistros esperados para o puro prêmio
para ser completamente acreditável, supondo (i) um nível de probabilidade de
90%, (ii) um parâmetro de intervalo de 5%, (iii) uma reivindicação comum
valeu de $500, e (iv) um desvio padão de custo de sinistro de $1000?
(Sugestão: Use o resultado de Exercício 5-4.)

Resposta: 5.410.

5-6 Se a severidade de indenizações sinistros é constante, então o número mínimo


de sinistros esperados requerido para credibilidade plena é 2.670. Qual é o
número mínimo de sinistros requerido para credibilidade plena se a severidade
dos sinistros tem uma distribuição de lognormal com média 1.000 e variância
1,500,000?

Resposta: 6.675.

5-7 Seja X o número esperado de sinistros requerido para credibilidade plena,


supondo-se um nível de probabilidade de 90% e um parâmetro de intervalo de
5%. Seja Y o número esperado de indenizações requerido para credibilidade
plena que assume um nível de probabilidade de 90% e um parâmetro de
X
intervalo de 10%. Qual é o valor de ?
Y

Resposta: 4.

5-8 Qual das seguintes declarações são verdades?

I. A distribuição normal pode ser aproximada pela distribuição de Poisson.


Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 86

II. Todos os atuários acreditam que existe um certo número esperado de


sinistros que merecem uma credibilidade de 1.

III. A distribuição de Poisson pode ser aproximada pela distribuição normal.

Resposta: Somente o item III está correto.

5.4 A Abordagem de Credibilidade Parcial

5-9 Mostre que 2.401 é o número esperado requerido de sinistros de acidente


automóvel para o uso de credibilidade plena, supondo-se um nível de
probabilidade de 95% e 4% de parâmetro de intervalo. Então, supondo 40.000
carro-ano de exposição e uma freqüência de sinistro comum de 0,0441, mostre
que o fator de credibilidade é Z = 0,86.

5-10 O atuário da XYZ Companhia de Seguro desenvolveu há pouco uma taxa


nova para uma classe particular de segurados. A taxa nova tem uma provisão
para custo de perda de $125.

(a) Supondo que a antiga taxa teve uma provisão para custo de perda de $100
e que o custo da perda no período de observação foi $200, mostre que o
fator de credibilidade é Z = 0,25.

(b) Durante o período de observação houve 10.000 segurados com uma


freqüência média de sinistros de 0,021. Determine o número esperado de
sinistros requerido para credibilidade plena, supondo inflação zero.

Resposta: (b) 3.360.

5-11 A Companhia de Seguro Slippery Rock está revisando suas taxas. Deseja que
o número esperado de sinistros requerido para credibilidade plena, λF , esteja
baseado no nível de probabilidade de 90% e no parâmetro de intervalo de
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 87

5%. Estima-se que as perdas de indenização individuais são mutuamente


independentes e identicamente distribuídas de acordo com a função
1
densidade de probabilidade para f ( x ) = , para 0 < x < 200.000.
200.000
Suponha que o número de sinistros segue uma distribuição de Poisson.

(a) mostre que a variância dos sinistros agregados, Var(S), é igual a


2  1
λF ( 200.000)   .
 3

(b) supondo que o mais recente período de observação revelou 1.082 sinistros,
mostre que o fator de credibilidade para aquele período é Z = 0,866. (Use a
aproximação normal para a Poisson.).

5-12 Quais das seguintes declarações são verdadeiras.

I. A abordagem de flutuação limitada para credibilidade requer um


mecanismo separado para manusear a credibilidade parcial.

II. A abordagem de flutuação limitada para credibilidade é relacionada ao


conceito de intervalos de confiança.

Resposta: Ambas as declarações são verdadeiras.

5.5 Observações Adicionais e Sumário

5-13 Quais das declarações seguintes são verdadeiras?

I. Sob a abordagem de flutuação limitada para credibilidade, o analista


determina diretamente o peso dado à média a priori, H.

II. De acordo com Sundt, a abordagem de flutuação limitada para


credibilidade plena sofre da inconsistência de que o critério para substituir
Capítulo 5 – A Abordagem de Credibilidade de Flutuação Limitada 88

a taxa de prêmio antiga está baseado na suposição que a taxa de prêmio


antiga está correta.

III. Todos os atuários acreditam que existe um certo número (finito) de


sinistros esperados que merecem uma credibilidade de 1.

Resposta: Somente a declaração II é verdadeira.


Capítulo 6 – A Abordagem de Bühlmann 89

CAPÍTULO 6

A ABORDAGEM DE BÜHLMANN

6.1 INTRODUÇÃO

Neste capítulo descrevemos a abordagem de credibilidade de Bühlmann.


A essência da abordagem de Bühlmann é apresentada na Seção 6.2, onde
discutimos a fórmula básica de credibilidade, a variância das médias hipotéticas e o
valor esperado da variância de processo. Na Seção 6.3 discutimos as características
do fator de credibilidade, Z. Os exemplos da Seção 6.4 suplementam o que foi
apresentado na Seção 6.2. Na Seção 6.5 mostramos que a variância total é igual à
soma de (a) o valor esperado da variância de processo e (b) a variância das médias
hipotéticas. Na Seção 6.6 apresentamos um método alternativo para calcular k em
situações práticas e na Seção 6.7 descrevemos duas alternativas equivalentes para
calcular Z. Concluímos o capítulo na Seção 6.8 com algumas breves observações
sobre a versão Bayesiana do modelo de filtro de Kalman.

6.2 ELEMENTOS BÁSICOS DA ABORDAGEM DE BÜHLMANN

6.2.1 A Fórmula de Credibilidade de Bühlmann

Se o atuário tem suficiente conhecimento anterior e substanciais recursos


computacionais e técnicos, então ele construiria, provavelmente, uma distribuição
preditiva para as indenizações agregadas durante o próximo período de observação,
conhecidos os montantes agregados das indenizações anteriores. Uma abordagem
freqüentista, que não requer explicitamente informação a priori para calcular o
fator de credibilidade Z e não requer muitos recursos, foi sugerida, como
Capítulo 6 – A Abordagem de Bühlmann 90

alternativa, por Bühlmann [1967]. Esta abordagem consiste em empregar um


estimador pontual, C, da forma,

C = ZR + ( 1 − Z ) H , (1.1)

como definido no Capítulo 1, onde R é a média das observações atuais, H é a média


a priori, e Z, o fator de credibilidade, está definido por

n
Z= (6.1)
n+k

satisfazendo a condição 0 < Z < 1. Na Equação (6.1), n é o número de tentativas


(ou unidades em exposição), e

k=
valor esperado da variância de processo

variância das médias hipotéticas (6.2)

onde o numerador e o denominador da Equação (6.2) estão definidos nas Seções


6.2.5 e 6.2.3, respectivamente. Daqui em diante nos referiremos a estimadores de
credibilidade que satisfaçam às Equações (1.1), (6.1), e (6.2) como estimadores de
credibilidade de Bühlmann.

Tais estimadores são de interesse porque, entre outras propriedades, eles


são as "melhores" aproximações lineares para os estimadores Bayesianos. Esse
assunto será melhor discutido no Capítulo 7.

No material que segue, usamos os adjetivos processo e hipotético como


sinônimos para o termo condicional.
Capítulo 6 – A Abordagem de Bühlmann 91

6.2.2 Médias hipotéticas

Geralmente, cada média hipotética se refere à freqüência média, à


severidade média, ou ao montante médio de indenizações (i. e., o prêmio puro) de
uma combinação individual de características de risco. A média hipotética é a
expectativa condicional, dado uma particular combinação de características de
risco.

Como um exemplo inicial, consideramos o exemplo do atirador de


Philbrick [1981], introduzido de forma resumida no Exemplo 2.1. Um de quatro
atiradores individuais, W, X, Y, e Z, é selecionado ao acaso (i.e., com probabilidade
1
). O atirador selecionado (cuja identidade é desconhecida para nós) atira em seu
4

próprio alvo posto a uma certa distância. Nossa tarefa é estimar o ponto no alvo
que o atirador atingirá em seu próximo tiro.

Informação adicional a priori está disponível. Foram tabulados os


resultados de cada um dos quatro atiradores que atiraram um número grande vezes
em um alvo idêntico. Baseado nestes resultados, sabe-se que os tiros de cada
atirador são distribuídos uniformemente em quatro alvos circulares não sobrepostos
como mostrado na Figura 6.1. As posições marcadas W, X, Y, e Z representam o
centro (ou, equivalentemente, a média) de cada alvo circular, pertinente a cada
atirador. A média (global) dos quatro alvos é G, o centro de gravidade.
Capítulo 6 – A Abordagem de Bühlmann 92

X

Y G W
• • •

Z

Figura 6.1

Cada um dos quatro centros dos alvos é a média hipotética do atirador


correspondente, e o centro de gravidade, G, é a média das médias hipotéticas. Antes
da observação de qualquer tiro, a " melhor " estimativa da localização do próximo
tiro seria G.

Depois da observação de um único tiro ter acertado a localização S em


W, por exemplo, a “melhor” estimativa para o próximo tiro, baseado na abordagem
de credibilidade de Bühlmann, está no segmento de linha que une G e S, como
mostrado na Figura 6.2. (Ressaltou-se no Exemplo 2.1 que a estimativa Bayesiana
seria ponto W, o centro do alvo W , desde que os alvos não se sobrepõem).

G

C W
• •
S

Figura 6.2
Capítulo 6 – A Abordagem de Bühlmann 93

Alguns leitores podem se sentir incomodados com o fato de a posição da


estimativa de Bühlmann cair fora do alvo. Este é um resultado de trade-off inerente
à abordagem de Bühlmann: uma estimativa menos precisa em troca de um cálculo
mais simples.

6.2.3 Variância das Médias Hipotéticas

A variância das médias hipotéticas, no exemplo de tiro-ao-alvo


apresentado na Seção 6.2.2, é uma função das distâncias entre as médias dos quatro
alvos. Para ser mais específico, suponha que (a) cada um dos quatro alvos tem um
diâmetro de uma unidade, e (b) cada um dos centros dos alvos está a uma distância
de uma unidade do ponto G.

Se fôssemos mover os alvos de forma que cada centro de alvo ficasse a


uma distância de duas unidades de G, isto aumentaria a distância entre os centros
dos alvos e então aumentaria a variância das médias hipotéticas.

Por outro lado, se fôssemos colocar cada centro de alvo uma distância de
meia unidade de G, como mostrado na Figura 6.3, então a distância entre as médias
hipotéticas diminuiria, e a variância das médias hipotéticas também diminuiria. Na
Figura 6.3, os alvos se sobrepõem, tornando assim mais difícil determinar a
identidade do atirador, depois de ter observado um pequeno número de tiros. Por
exemplo, se um único tiro é observado no ponto S, como mostrado em Figura 6.4,
então o atirador pode ser X ou Y. Portanto, à medida que os alvos se movem e se
aproximam a variância das médias hipotéticas diminui. No caso limite, se todos os
alvos são centrados em G, então todas as médias hipotéticas estão em G.
Capítulo 6 – A Abordagem de Bühlmann 94

X

G W
Y• •

Z•

Figura 6.3

X

S

Y
• G

Figura 6.4

Neste caso todos os alvos são idênticos e a variância das médias


hipotéticas é zero. Então, usando a Equação (6.2) encontramos que k é infinito e,
por sua vez, a Equação (6.1) implica que Z é zero. Por conseguinte, toda a
informação está contida na estimativa a priori, H, que neste caso é simplesmente
G, o centro de gravidade. Portanto, a estimativa de Bühlmann da localização do
próximo tiro é C = H = G, considerando-se que Z = 0 e 1 - Z = 1.

Em seguida, permita-nos comparar as situações ilustradas pelas Figuras


6.1 e 6.3. Na Figura 6.1, depois de ter observado a localização de um único tiro,
você pode identificar o atirador. Isto não é necessariamente o caso da Figura 6.3,
como demonstrado pelo exemplo apresentado na Figura 6.4. Portanto, a variância
Capítulo 6 – A Abordagem de Bühlmann 95

das médias hipotéticas (e, conseqüentemente, o fator de credibilidade Z) é maior


para Figura 6.1 do que para Figura 6.3. Isto ocorre porque mais peso deveria ser
dado aos dados observados, no caso da Figura 6.1, do que no caso da Figura 6.3.

Considere o próximo exemplo, aquele do dado apresentado na Seção 2.2,


1
no qual um de dois dados é selecionado, cada qual com probabilidade , sendo
2

então lançado uma só vez. Supomos que temos um sinistro com indenização de $1
se uma face marcada aparece; de outra forma não há sinistro. Há duas combinações
(ou conjuntos) de características de risco, uma correspondente a cada dado. A
1
média (hipotética) de sinistros é igual a para o dado com uma face marcada e
6
1
cinco não marcadas, e para o dado com três faces marcadas e três não marcadas.
2
1
Porque cada dado é selecionado com igual probabilidade de , o montante
2
esperado de indenização (i.e., o valor esperado da média hipotética) é

 1  1  1  1  1
   +    =   , (6.3a)
 2   6   2   2   3

e, então, a variância das médias hipotéticas é

 1  1 1
2
 1   1 1
2
1
  −  +   −  = . (6.4a)
 2   6 3  2   2 3 36

Em outras palavras, a variância das médias hipotéticas é a variância das


esperanças condicionais de todos os vários conjuntos de características de risco.

Para fornecer maiores detalhes do cálculo da variância das médias


hipotéticas, recalcularemo-la usando a notação do Exemplo 2.2 e da Seção 4.1.
Usando esta notação, as médias hipotéticas podem ser representadas por
Capítulo 6 – A Abordagem de Bühlmann 96

[ ] [ ]
E X X A = a1 = E X A1 = 0 ⋅ P X = 0 A1 + 1 ⋅ P X = 1 A1 [ ] [ ]
1 1
= 0+ =
6 6

[ ] [ ]
E X X A = a 2 = E X A2 = 0 ⋅ P X = 0 A2 + 1⋅ P X = 1 A2 [ ] [ ]
1 1
= 0+ = .
2 2

Uma vez que cada dado é selecionado com igual probabilidade, então,

[ ]
E [ X ] = E X [ X ] = E A E X [ X A]

= ∑ P[ A ] ⋅ E [ X A ]
2

i X i
i= 1

= P[ A ] ⋅ E [ X A ] + P[ A ] ⋅ E [ X A ]
1 X 1 2 X 2

 1   1  1   1   1  (6.3b)
=     +    =   .
 2   6  2   2   3

Assim vemos que EX [X] representa o valor esperado das médias


hipotéticas, previamente calculadas através da Equação (6.3a).

Calcularemos agora a VarA ( E X [ X A]) , que representa a variância das


médias hipotéticas, como

VarA ( E X [ X A]) = ∑ P[ A ] ⋅ {E [ X A ] − E [ X ]}
2
2
i X i X
i =1

 1
2

= P[ A1 ] ⋅  E X [ X A1 ] − 
 3
 1
2

+ P[ A2 ] ⋅  E X [ X A2 ] − 
 3
2 2 (6.4b)
11 1 1  1 1 1
=  −  +  −  = ,
26 3  
2 2 3  36

como anteriormente calculado através de Equação (6.4a).


Capítulo 6 – A Abordagem de Bühlmann 97

No exemplo de dado-roleta da Capítulo 4, as médias hipotéticas são as


estimativas dos prêmios puros calculadas para cada uma das quatro combinações de
dado-roleta (ou combinações de características de risco), mostradas na coluna (4)
da Tabela 4.2. A variância das médias hipotéticas é a soma ponderada das
diferenças ao quadrado entre as estimativas de cada um dos quatro prêmios puros e
a média a priori, E [ X 1 ] = 2 . (Note que a media a priori é a esperança das médias
1
hipotéticas.) Como cada peso é igual a , a variância das médias hipotéticas é
4

1  2   14
2
4 
2

 −  +  −  + ( 2 − 2) + ( 4 − 2 )  =
2 2
 2
 3
2

. (6.5)
4 3  9

6.2.4 Variância de Processo

Em geral, cada variância de processo se refere à variância da


freqüência, da severidade ou dos montantes agregados de indenizações de uma
combinação individual de características de risco. O termo “processo” se refere ao
processo de geração do número de sinistros e/ou de indenizações. Então, a
variância do processo é a variância condicional, dada uma combinação de
características de risco.

Para um exemplo inicial, retornaremos ao exemplo de tiro-ao-alvo


discutido nas Seções 6.2.2 e 6.2.3, e começaremos observando a Figura 6.1. A
variância de processo do atirador W simplesmente se refere à variação na
localização dos tiros de W ao redor do ponto W. Observações semelhantes se
aplicam às variâncias de processo de cada um dos outros três atiradores.
Capítulo 6 – A Abordagem de Bühlmann 98

6.2.5 Valor Esperado da Variância de Processo

O valor esperado da variância de processo para o exemplo de tiro-ao-alvo


é simplesmente média aritmética (considerando-se que cada atirador tem igual
probabilidade de ser selecionado) das quatro variâncias de processo individuais.

Suponha agora que todos os quatro atiradores tenham tomado lições na


academia policial local e se tornam atiradores muito melhores, significando isto
que os seus tiros fiquem todos restritos aos alvos menores mostrados na Figura 6.5.
Como os tiros de cada atirador estarão agrupados mais próximos ao redor dos
centros dos seus alvos respectivos (ou médias), há muito menos variação neste
caso. Portanto, cada variância de processo é menor, sendo também menor a
esperança da variância (global) de processo. De fato, para a situação da Figura 6.5,
é muito mais fácil de identificar o atirador depois de observar um único tiro que no
caso da Figura 6.3. Desde que a variância de processo esperada é menor na Figura
6. 5 do que na Figura 6. 3, então Equação (6. 2) mostra que k diminui da Figura 6.3
para Figura 6.5, e a Equação (6.1) mostra que o fator de credibilidade, Z, aumenta
da Figura 6.3 para a Figura 6.5. Conseqüentemente, por causa da diminuição na
variância de processo, são atribuídos maiores pesos aos dados observados, R, na
Figura 6.5 do que em Figura 6.3.
Capítulo 6 – A Abordagem de Bühlmann 99

X

Y G W
• • •

Z

Figura 6.5

Agora, consideraremos novamente o exemplo da dado-roleta do Capítulo


4. Recordamos que, para cada dado, o número de sinistros tem uma distribuição
binomial. Então, para um único lance do dado com uma face marcada, a variância
de processo (i.e., condicional) é

 1   5 5
npq = (1)     = .
 6   6 36

Para um único lance do dado com três faces marcadas, a variância de


processo é

 1 1 1
npq = (1)     = .
 2  2  4
Capítulo 6 – A Abordagem de Bühlmann 100

1
Posto que cada dado é selecionado com probabilidade , o valor
2
esperado da variância de processo é

 1  5   1  1 7
   +    = . (6.6a)
 2   36   2   4  36

Usando a anotação mais formal da Seção 6.2.3, podemos calcular o valor


esperado da variância de processo, denotado por E A [VarX ( X Ai )] , como

[ ]
E A VarX ( X A) = ∑ P[ Ai ] ⋅ VarX ( X Ai )
2

i =1

= P[ A1 ] ⋅VarX ( X A1 ) + P[ A2 ] ⋅ VarX ( X A2 ) (6.6b)


 1 5   1  1 7
=    +     = .
 2   36   2   4  36

Os cálculos requeridos para computar a variância de processo para cada


combinação no exemplo de dado-roleta estão resumidos na Tabela 6.1, mostrada na
página 79, e vão descritos a seguir.

As médias das freqüências da coluna (3) vêm diretamente da coluna (2)


da Tabela 4.2. Como a variância de uma única tentativa de uma variável aleatória
de Bernoulli é pq, as variâncias da coluna (4) são facilmente calculadas como

( )  1 5
Var I 1 A1 =     =
5
 6   6  36
(6.7a)

( )  3   3 1
Var I 1 A2 =     =
 6 6 4
. (6.7b)

As variâncias das severidades, Var( S1 B j ) , para j = 1,2, que constituem a

coluna (5), são calculadas como


Capítulo 6 – A Abordagem de Bühlmann 101

( ) ( [ ]) ⋅ P[ S = 2 B ]
2
Var S 1 B j = 2 − E S1 B j 1 j

+ ( 14 − E [ S B ]) ⋅ P[ S = 14 B ] .
2

1 j 1 j

Então, para j = 1, temos

( ) 2  5 2  1
Var S 1 B1 = ( 2 − 4 )   + ( 14 − 4)   = 20 ,
 6  6
(6.8a)

e para j = 2 nós temos

( ) 2  3 2  3
Var S 1 B2 = ( 2 − 8)   + ( 14 − 8)   = 36 ,
 6  6
(6.8b)

onde as médias das severidades, E S 1 B j [ ] , usadas para calcular as variâncias

mostradas na coluna (5), como também as grandezas da coluna (6), são obtidas a
partir da coluna (3) da Tabela 4.2.
Finalmente, usando a Equação (5.3b), dada pelo Teorema 5.3,
calculamos as variâncias de processo mostradas na coluna (7), como

[ ] ( ) ( )( [ ])
2
E I 1 Ai ⋅Var S1 B j + Var I 1 Ai ⋅ E S1 B j .

TABELA 6.1
VARIÂNCIA DE PROCESSO DO EXEMPLO DO DADO-ROLETA
Frequência Severidade
(1) (2) (3) (4) (5) (6) (7)
Probabilidade do Média ao
Tipo de Média Variância Variância (3)(5)+(4)(6)
Quadrado
( ) ( E [ S B ])
Dado-Roleta
Dado e
Roleta [
P Ai B j ] [
E I 1 Ai ] (
Var I 1 Ai ) Var S1 B j
1 j
2
Variância de
Processo

A1 B1 1 1 5 50
20 16
4 6 36 9
A1 B2 1 1 5 134
36 64
4 6 36 9
A2 B1 1 1 1
20 16 14
4 2 4
A2 B2 1 1 1
36 64 34
4 2 4
Capítulo 6 – A Abordagem de Bühlmann 102

O valor esperado da variância de processo é obtido multiplicando-se a


variância de processo de cada combinação de dado-roleta, dado na coluna (7), pela
correspondente probabilidade da combinação dado-roleta, encontrada na coluna
(2), e somando-se os resultados. Assim achamos o valor esperado da variância de
processo

1  50 134  154
 + + 14 + 34 = . (6.9)

4 9 9  9

6.2.6 Estimativas de Credibilidade

Substituindo-se os resultados dados pelas Equações (6.5) e (6.9) na


Equação (6.2), encontramos, para o exemplo de dado-roleta,

154 / 9
k= = 11
14 / 9

Para uma observação (n = 1), o fator de credibilidade é determinado


através de Equação (6.1), como

n 1 1
Z= = = .
n + k 1 + 11 12

Finalmente, usando-se a Equação (1.1) com Z =


1
12
[ ]
e H = E X1 = 2 ,

podemos calcular a estimativa de Bühlmann, C, conhecido o resultado, R, da


primeira tentativa. Para R = 14, por exemplo, temos

 1  11 
C = ZR + ( 1 − Z ) H =   ( 14) +   ( 2) = 3 .
 12   12 
Capítulo 6 – A Abordagem de Bühlmann 103

Todas as três estimativas de Bühlmann que correspondem a cada um dos


três possíveis resultados da primeira tentativa são apresentadas na tabela seguinte.

TABELA 6.2

ESTIMATIVAS DE CREDIBILIDADE
DE BÜHLMANN

Resultado, R Estimativa de Bühlmann, C

0 11 / 6

2 2

14 3

As estimativas de credibilidade de Bühlmann da Tabela 6.2 são


mostrados na seguinte figura. Note que todos os três pontos repousam sobre uma
linha direta, demonstrando que o estimador de credibilidade de Bühlmann é de fato
um estimador linear.


1 R

2 4 6 8 10 12 14

Figura 6.6
Capítulo 6 – A Abordagem de Bühlmann 104

Exemplo 6.1

O número de sinistros, Nj, durante i-ésimo ano da apólice (i = 1, 2) para


um segurado individual tem distribuição de Poisson com parâmetro Θ . A
distribuição a priori de Θ é a distribuição uniforme no intervalo (0,1). Um

segurado individual tem exatamente um sinistro durante o primeiro ano da apólice.


Use o modelo de Bühlmann para calcular o número esperado de sinistros do
segurado para o segundo ano da apólice.

Solução

Note primeiro que a função de densidade a priori de Θ é f (θ) = 1 , para


0 < θ < 1 , e f (θ = 0) para qualquer outro caso. Os primeiros dois momentos centrais

de Θ são

θ2
1 1
1
E [Θ] = ∫ θ ⋅ f (θ) dθ = =
0
2 0
2

θ3
1 1

E [Θ ] = ∫ θ ⋅ f ( θ) dθ =
1
2 2
= .
0
3 0
3

Sabendo-se que o número de sinistros, N, tem uma distribuição de


Poisson, o valor esperado da variância de processo é

[ ] 1
E Θ VarN [ N Θ] = EΘ [Θ] = .
2

A variância das médias hipotéticas é


Capítulo 6 – A Abordagem de Bühlmann 105

VarΘ (E N [ N Θ ]) = VarΘ ( Θ ) = E[ Θ 2 ] − ( E[ Θ]) =


2 1
.
12

Então

valor esperado da variancia do processo 1 / 2


k= = =6 .
variancia das medias hipoteticas 1 / 12

O número de observações é n = 1, assim, através de Equação (6.1), temos

n 1 1
Z= = = .
n + k 1+ 6 7

desde que R = 1 e H = E N [ N ] = E Θ [ E N [ N Θ]] = EΘ [Θ] = ,


1
Finalmente,
2
temos, pela Equação (l.1), que a estimativa de Bühlmann do número esperado de
sinistros durante o segundo ano da apólice é

 1  6
C = ZR + ( 1 − Z ) H =   ( 1) +   (0,50) = 0,571 .
 7  7

6.2.7 Resumo da Abordagem de Bühlmann

Meta: Determinar a estimativa de compromisso, C.

Passo 1: Determine n, o número de períodos de observação.

Passe 2: Calcule a variância das médias hipotéticas.

Passo 3: Calcule a esperança da variância de processo.

valor esperado da variancia de processo


Passo 4: Calcule k = .
variancia das medias hipoteticas
Capítulo 6 – A Abordagem de Bühlmann 106

n
Passo 5: Calcule o fator de credibilidade, Z = .
n+k

Passo 6: Calcule a estimativa de compromisso, C = ZR + (1 - Z)H.

6.3 CARACTERÍSTICAS DO FATOR DE CREDIBILIDADE

Relacionamos as seguintes importantes características do fator de


n
credibilidade de Bühlmann Z = .
n+k

(1) Z é uma função crescente de n. No caso limite com n tendendo para


infinito, Z se aproxima de um.

(2) uma vez que Z é uma função decrescente de k, Z é também uma função
decrescente do valor esperado da variância de processo, com um limite
inferior em zero. Assim, quanto maior for a variação associada com as
combinações individuais de características de risco, tanto menor será o
peso dado às observações atuais, R, e tanto maior peso dado à média a
priori, H.

(3) finalmente, Z é uma função crescente da variância das médias hipotéticas,


com limite superior em um. Assim, Z aumenta com a variação nos valores
esperados das várias combinações de características de risco.

6.4 EXEMPLOS ADICIONAIS DE ESTIMATIVAS DE BUHLMANN

O ponto de partida para o cálculo de k é a combinação individual de


características de risco. Para cada combinação de características de risco, podem
ser calculados os valores esperados apropriados (i.e., médias) e as variâncias. A
variância relativa à população completa de características de risco, destes valores
Capítulo 6 – A Abordagem de Bühlmann 107

esperados é chamada de variância das médias hipotéticas. O valor esperado, para a


população, das variâncias individuais é conhecido como valor esperado da
variância de processo. Assim, se as distribuições das médias e variâncias
individuais são conhecidas, k pode ser calculado diretamente a partir dos momentos
destas distribuições. Isto foi ilustrado na Seção 6.2 para o exemplo do dado-roleta.
Dois exemplos adicionais são apresentados nesta seção.

Exemplo 6.2

Para um grupo de riscos individuais, a distribuição das indenizações


agregadas para cada risco, X, tem média M e variância V. Sabe-se ainda que (a) M,
r
por sua vez, é selecionada ao acaso de uma distribuição com média e variância
a
r q q
2 , e (b) V é escolhida ao acaso de uma distribuição com média e variância 2 .
a b b
Encontre o prêmio puro para cada risco e o valor de k.

Solução

O prêmio puro para cada risco é

[ ]
E X [ X ] = E M E X [X M] = E M [ M ] =
r
a
,

o valor esperado considerando-se todas as médias condicionais, M. A variância das


médias condicionais é

VarM (E X [ X M ]) = VarM ( M ) =
r
.
a2

O valor esperado das variâncias condicionais individuais é


Capítulo 6 – A Abordagem de Bühlmann 108

[ ] q
EV VarX ( X V ) = EV [V ] = .
b

Então, temos

valor esperado das variancias condicionais q / b qa 2


k= = = .
variancia das medias condicionais r / a2 br

Exemplo 6.3

Suponha que cada risco individual tem uma distribuição de Poisson,


P( Λ) , onde parâmetro Λ é uniformemente distribuído no intervalo (0,07 ; 0,13).

Supõe-se, ainda, que a severidade segue a distribuição discreta B1 , 40% das vezes,
e a distribuição discreta B2 , 60% das vezes, onde as distribuições discretas B1 e B2
estão definidas como segue:

Probabilidades da

Severidade Severidade

B1 B2

5 1
2
6 2

1 1
14
6 2
Capítulo 6 – A Abordagem de Bühlmann 109

Suponha que a freqüência de perda e a severidade de perda são


independentes, dado o par ordenado (Λ, Bi ) . Calcule k e Z para as indenizações
agregadas durante três períodos de observação.

Solução

As características do risco são representadas pelo par ordenado (Λ, Bi ) ,


onde 0,07 < Λ < 0,13 e i = 1, 2. (O leitor reconhecerá B1 e B2 como as distribuições
de severidade da roleta do Exemplo 2.3.). A Tabela 6.3, semelhante a Tabela 6.1,
resume os dados para este exemplo. Como na discussão do exemplo de dado-roleta
da Seção 6.2.5, usamos a equação (5.3b) do Teorema 5.3 para calcular a variância
de processo.

TABELA 6.3

DESENVOLVIMENTO DA VARIÂNCIA DE PROCESSO

Freqüência Severidade Variância


Características
Média Variância Variância Média ao de
de Risco
Quadrado Processo

( Λ, B )
1
Λ Λ 20 16 36Λ

(Λ, B )
2
Λ Λ 36 64 100Λ

Uma vez que Λ é uniformemente distribuído com p.d.f.


Capítulo 6 – A Abordagem de Bühlmann 110

 1
 0,06 0,07 < λ < 0,13
f ( λ) = 

 0 para outros valores ,

então

0 ,13
λ λ2
0 ,13

E [Λ ] = ∫ dλ = = 0,10 , e
0 , 07
0,06 ( 2) ( 0,06) 0 ,07

0 ,13
λ2 λ3
0 ,13

E [Λ ] = ∫
2
dλ = = 0,0103 .
0 , 07
0,06 ( 3) ( 0,06) 0 ,07

Agora, podemos calcular o valor esperado da variância de processo como

(0,40) ⋅ E[ 36Λ ] + ( 0,60) ⋅ E[100 Λ]


= ( 0,40)( 36) ⋅ E[ Λ] + ( 0,60)(100) ⋅ E [ Λ]
= ( 74,4) ⋅ E [ Λ] = (74 ,4 )( 0,10) = 7,44 .

Para o par ordenado de características de risco ( Λ, B1 ) a média hipotética

(condicional) é 4Λ (considerando-se que E[ S 1 B1 ] = 4 ), e para (Λ, B2 ) é 8Λ . Então, o


valor esperado das médias hipotéticas é

(0,40) ⋅ E[ 4 Λ] + (0,60) ⋅ E[8 Λ] = (6,4) ⋅ E[ Λ] = (6,4)( 0,10) = 0,64 .

Os quadrados das médias hipotéticas são 16Λ2 e 64 Λ2 , para ( Λ, B1 ) e

(Λ, B ) ,
2 respectivamente. Portanto, o valor esperado dos quadrados das médias
hipotéticas é
Capítulo 6 – A Abordagem de Bühlmann 111

(0,40) ⋅ E [16Λ2 ] + ( 0,60) ⋅ E[ 64Λ2 ] = ( 44,8) ⋅ E[ Λ2 ]


= ( 44,8)( 0,0103) = 0,46144 .

Então, a variância das médias hipotéticas é

0,46144 − (0,64) = 0,05184 ,


2

conduzindo a

7,44
k= = 143,52 ,
0,05184

Finalmente, para três períodos de observação temos

n 3
Z= = = 0,02 .
n + k 3 + 143,52

6.5 COMPONENTES DA VARIÂNCIA TOTAL

No Teorema 5.2 desenvolvemos a importante equação

[ ]
Var( Y ) = E X VarY (Y X ) + Var X (E Y [Y X ]) (6.10)

Em palavras, a Equação (6.10) está dizendo que

Valor Esperado da Variância das Médias


Variância Total = +
Variância de Processo Hipotéticas
Capítulo 6 – A Abordagem de Bühlmann 112

Exemplo 6.4

Para i = 1,2,... ,k, faça a variável aleatória Nj , ter distribuição de Poisson


com média Λ i onde, por sua vez, Λ i , tem média µ e variância σ 2 .

(a) Calcule a variância de processo de Ni conhecido Λ i , para i = 1, 2, ... ,k.

(b) Calcule a variância incondicional de Ni, para i = 1,2. . . , k.

Solução

(a) Porque Ni tem uma distribuição de Poisson dado Λ i , a variância


condicional de Ni dado Λ i é igual ao valor esperado condicional Ni
dado Λ i ;. Em notação matemática

( ) [ ]
VarN i N i Λ i = E N i N i Λ i = Λ i ,

para i = 1,2,... ,k. (Este resultado é usado em Seção 6.6.)

(b) Através da Equação (6.10), com Y substituído por Ni e X substituído


por Λ i , temos

[ ( ) ( [
Var( N i ) = E Λ i Var Ni Λ i + VarΛ i E Ni N i Λ i ]) ]
[ ]
= E Λ i Λ i + VarΛi (Λ i ) = µ + σ 2 .

6.6 APLICAÇÕES PRÁTICAS DO MODELO DE BÜHLMANN

Nos exemplos apresentados nas Seções 6.1 a 6.5, todas as distribuições


de probabilidade requeridas foram supostas serem completamente conhecidas.
Nesta seção, adotamos a perspectiva oposta. Admitimos, como muitos analistas
Capítulo 6 – A Abordagem de Bühlmann 113

fazem em situações práticas, que sabemos nada sobre tais distribuições de


probabilidade. Esses analistas se sentem mais confortáveis confiando
exclusivamente nos dados, em lugar de fazer julgamentos subjetivos sobre os
valores a priori da média e de outros parâmetros. Estes analistas calculam os
parâmetros de interesse usando os dados disponíveis. Tais procedimentos são
chamados freqüentemente de procedimentos Bayesianos empíricos, um termo
cunhado nos anos 60 pelo Professor Herbert Robbins, então na Universidade de
Columbia. As aplicações mais antigas de procedimentos Bayesianos empíricos em
problemas de seguro são encontradas em Morris e van Slyke [1979].

Antes de descrever a abordagem geral, apresentamos as seguintes


definições que são requeridas na discussão que segue.

Definição 6.1

Para n > 2, as variáveis aleatórias X 1 , X 2 ,K , X n são ditas mutuamente


independentes se, para qualquer ênupla de números reais (x1 , x 2 ,K , x n ) , temos

[
P ( X 1 ≤ x1 ) ∩ ( X 2 ≤ x 2 )∩K∩( X n ≤ x n ) ]
= P[ X 1 ≤ x1 ] ⋅ P[ X 2 ≤ x 2 ]⋅K⋅ P[ X n ≤ x n ] .

Definição 6.2

Para n > 2, as variáveis aleatórias X 1 , X 2 ,K , X n são ditas


condicionalmente independentes dado o parâmetro Θ se, para qualquer ênupla
de números reais (x1 , x 2 ,K , x n ) , temos
Capítulo 6 – A Abordagem de Bühlmann 114

[
P ( X 1 ≤ x1 ) ∩ ( X 2 ≤ x2 )∩K∩( X n ≤ xn ) Θ ]
[ ] [ ] [
= P X 1 ≤ x1 Θ ⋅ P X 2 ≤ x 2 Θ ⋅K⋅ P X n ≤ x n Θ . ]
6.6.1 Abordagem Geral

A seguinte aproximação genérica poderia ser adotada como um


procedimento de Bayesiano empírico. Conhecidos n anos de dados experimentais
para a apólice de r grupos de seguroados, n > 2 e r > 2, façamos Xij ser a variável
aleatória que representa o montante agregado de indenizações do i-ésimo segurado
durante o j-ésimo ano da apólice para i = 1, 2, ..., r e j = 1, 2, ..., n + 1. O objetivo
é estimar E [ X in+ 1 X i ,1 = xi ,1 , X i ,2 = xi ,2 , K, X i ,n = xi ,n ] , que representa a expectativa

condicional para o segurado i, conhecidas as realizações das variáveis aleatórias


X i ,1 = xi ,1 , X i , 2 = x i , 2 ,K , X i ,n = x i , n para os n anos anteriores de vigência da apólice.

Seja Xi = ( X i,1 , X i, 2 ,K , X i, n ) um vetor de variáveis aleatórias de montantes

agregados de indenizações para o i-ésimo segurado. Adotamos as seguintes


suposições:

(1) Os vetores aleatórios Xl , X2, ... Xr são considerados mutuamente


independentes. Em outras palavras, a experiência de um segurado
não deveria influenciar a experiência de segurado distinto.

(2) Para i = 1, 2, ... , r, a distribuição de cada elemento de Xi depende de


um parâmetro de risco (desconhecido) θi , onde θi é uma realização
da variável aleatória Θ i .

(3) As variáveis aleatórias Θ 1 , Θ 2 , K, Θ r são mutuamente independentes e


identicamente distribuídas.
Capítulo 6 – A Abordagem de Bühlmann 115

(4) Dados i e Θ i , as variáveis aleatórias X i,1 , X i , 2 ,K , X i ,n são mutua e


condicionalmente independentes.

(5) Cada combinação de “ano da apólice” e “segurado” tem um igual


número de unidades de exposição.

Para i = 1, 2, ..., r e j = 1, 2, ... , n, definimos

[
µ(Θ i ) = E X ij Θ ]
e

(
ν(Θ i ) = Var X i Θ i . )
Então,

[
µ = E µ(Θ i ) ]
representa a média global hipotética

[
ν = E ν(Θ i ) ]
representa a variância das médias hipotéticas, e

(
a = Var µ(Θi ) )

representa a variância de processo esperada. Empregamos os seguintes estimadores


µ, ν e a , respectivamente:

1 r 1 r n
µ$ = x = ∑ x = ∑∑ x ,
r i =1 i rn i =1 j =1 ij
(6.11)
Capítulo 6 – A Abordagem de Bühlmann 116

1 n
onde, x i = ∑x ,
n j =1 ij

1 r
( )
r n
1
∑ ∑ ∑ x − xi
2
ν$ = ν$ = , (6.12)
r i =1 i r( n − 1) i =1 j =1 ij

1 n
(
∑ x − xi )
2
onde, ν$i = ,e
n − 1 j = `` ij

ν$
a$ =
1 r

r − 1 i =1
( xi − x ) −
2

n
(6.13)
1 r
( ) ( )
r n
1
∑ ∑ ∑ x − xi
2 2
= x − x − .
r − 1 i =1 i rn( n − 1) i =1 j =1 ij

Disso decorre que µ$ , ν$ e a$ são estimadores não viesados de


ν$
1
µ, ν e a , respectivamente . Os estimadores de k e Z são, então, k$ = e
a$
n
Z$ = , onde k$ e Z$ são estimadores não viesados. Destaque-se que não são os
n + k$
únicos estimadores possíveis para estes parâmetros. Finalmente, a estimativa de
Bühlmann de E [ X in+ 1 X i ,1 = xi ,1 , X i ,2 = xi ,2 , K, X i ,n = xi ,n ] é

$ i + (1 − Z$ )µ$ ,
C = Zx

para i = 1, 2, ..., r. É possível, como mostrado no Exercício 6-19, que a$ possa ser
negativo, um resultado indesejável, considerando-se que as variâncias devem, é
claro, ser não negativas. O procedimento acima é ilustrado no seguinte exemplo.

1
Usamos µ $ , ν$ e a$ para representar ambos, os estimadores e suas realizações. Esperamos que o leitor possa
facilmente distinguí-los, de acordo com o contexto.
Capítulo 6 – A Abordagem de Bühlmann 117

Exemplo 6.5

Uma companhia de seguro tem dois grupos de apólices de seguros de


acidente de trabalho. Os montantes agregados de indenizações (em milhões de
unidades monetárias) para os três primeiros anos da apólice estão resumidos na
tabela abaixo. Use o modelo de Bühlmann para calcular o montante agregado de
indenizações durante o quarto ano da apólice para cada um dos dois grupos citados.
Não faça qualquer suposição sobre a distribuição de probabilidade dos montantes
agregados de indenizações. Suponha nenhuma inflação e um igual número de
unidades de exposição para cada uma das seis combinações de grupo de apólice e
ano da apólice.

Montante Agregado de Indenizações


Grupo de Ano da Apólice
Apólice 1 2 3

1 5 8 11

2 11 13 12

Solução

Uma vez que há dois grupos de apólices e três anos de dados


experimentais para cada grupo, temos r = 2 e n = 3. Os vetores de sinistros
observados são x1 = ( x11 , x 12 , x13 ) = (5, 8, 11) e x 2 = (x 21 , x22 , x23 ) = (11, 13, 12) ,

respectivamente, para as duas apólices. Considerando-se que

1 n 5 + 8 + 11
x1 = ∑
n j =1
x1 j =
3
=8

e
Capítulo 6 – A Abordagem de Bühlmann 118

1 n 11 + 13 + 12
x2 = ∑
n j =1
x2 j =
3
= 12 ,

então a estimativa a priori da média global, µ$ , é

1 r 8 + 12
µ$ = x = ∑
r i =1
xi =
2
= 10 .

Além disso, desde que

1 n
(
∑ x − x1 ) 1
[ ]
(5 − 8) 2 + (8 − 8) 2 + (11 − 8) 2 = 9
2
v$1 = =
n − 1 j =1 1 j 2

v$ 2 =
1 n
(
∑ x − x2
n − 1 j =1 2 j
) 2

=
1
2
[
(11 − 12) 2 + (13 − 12 ) 2 + (12 − 12) 2 = 1 , ]
então, a estimativa da variância de processo esperada é

1 r 1
v$ = ∑ v$i = ( 9 + 1) = 5 .
r i =1 2

A estimativa da variância das médias hipotéticas é

v$
( xi − x ) −
1 r

2
a$ =
r − 1 i =1 n
1
1
[
= ( 8 − 10) + ( 12 − 10) − =
2 2 5 19
3 3
] .

Então, temos

v$ 5
k$ = = = 0,78497 .
a$ 19 / 3
Capítulo 6 – A Abordagem de Bühlmann 119

Logo, a estimativa do fator de credibilidade para cada grupo de apólice é

n 3
Z$ = $ = = 0,79167 .
n + k 3 + 0,78947

Finalmente, os prêmios puros estimados para os dois grupos de apólices


são

$ 1 + (1 − Z$ )µ$ = (0,79167)( 8) + (0,20833)(10) = 8,41666


Zx

$ 2 + (1 − Z$ )µ$ = ( 0,79167)( 12) + ( 0,20833)( 10) = 11,58334 ,


Zx

respectivamente.

6.6.2 Métodos Ad Hoc

Em certas circunstâncias, a relação funcional entre os três parâmetros


µ ,v e a , facilita suas estimações. Por exemplo, se o número de sinistros, N, tem

uma distribuição de Poisson com média µ( Θ) , então a média global hipotética, µ , é


igual ao valor esperado da variância de processo, v. Este resultado é expresso por

[ ] [ ]
µ = E[µ( Θ) ] = EΘ E [ N Θ] = E Θ Var ( N Θ) = E Θ [ v( Θ) ] = v .

Nesta situação é suficiente estimar somente dois parâmetros, digamos,


µ e a , uma vez que µ = v . Como mostrado no Exemplo 6.6 abaixo, isto nos

permite calcular as estimativas de Bühlmann, ainda que tenhamos apenas um grupo


de segurados.
Capítulo 6 – A Abordagem de Bühlmann 120

Antes de apresentar este exemplo envolvendo a distribuição de Poisson,


descrevemos primeiro o procedimento alternativo para calcular k em aplicações
práticas.

(1) A partir dos dados disponibilizados por uma amostra em separado, é


calculada uma variância para cada combinação de características de
risco. A média dessas variâncias amostrais é calculada e então é
usada como a estimativa do valor esperado da variância de processo.

(2) Os dados disponíveis sobre cada risco individual são então usados
para calcular a variância total da amostra, que é usada como a
estimativa da variância total.

(3) Como o Teorema 5.2 estabeleceu que


Valor Variância das
Variância
= Esperado da + Médias
Total
Variância de Hipotéticas
Processo

então a variância das médias hipotéticas pode ser obtida subtraindo-


se o resultado do item (1) daquele obtido no item (2).

(4) k é então achado dividindo-se o resultado de (1) pelo de (3).

Embora este seja um método direto de calcular k, não é necessariamente


ótimo. De fato, a variância estimada das médias hipotéticas produzida por este
método pode ser negativa. Além disso, o estimador da variância das médias
hipotéticas do passo (3) acima não é um estimador não viesado. Vários
refinamentos deste procedimento têm sido desenvolvidos para sua aplicação
prática.
Capítulo 6 – A Abordagem de Bühlmann 121

O exemplo seguinte faz uso deste procedimento ad hoc para calcular k,


como também o resultado que µ = v para a distribuição de Poisson.

Exemplo 6.6

O número de perdas que surgem de 300 segurados individuais em um


único período de observação está distribuído da seguinte forma:

Número de Perdas: 0 1 2 3 4 5

Número de Segurados: 123 97 49 21 8 2

Cada perda tem uma severidade de uma unidade monetária. O número de


perdas para cada segurado segue uma distribuição de Poisson, mas a média de cada
distribuição pode ser diferente para segurados individuais. Mostre como estimar k.

Solução

Calculamos primeiro a média das perdas esperadas, como

( 1)( 97) + ( 2)( 49 ) + ( 3)( 21) + ( 4)( 8) + ( 5)( 2)


= 1,0 .
300

Isto é o valor esperado (estimado) das médias dos 300 riscos individuais.
Sob a distribuição de Poisson, as variâncias dos riscos individuais são iguais as
suas médias, assim

Valor Esperado Estimado = Valor Esperado Estimado das Variâncias de Risco Individuais
da Variância de Processo
= Valor Esperado Estimado de Médias Individuais
= 1,0 .
Capítulo 6 – A Abordagem de Bühlmann 122

O valor esperado (estimado) dos quadrados das perdas é

( 1) 2 ( 97) + ( 2) 2 ( 49 ) + ( 3) 2 ( 21) + ( 4 ) 2 ( 8) + ( 5) 2 ( 2)
= 2,2 .
300

A variância total das perdas é estimada como sendo 2,2 - (1,0)2 = 1,2.
Então, através da Equação (6.10), a variância das médias hipotéticas pode ser
calculada como

Variância Total Variância de Processo


- = 1,2 – 1,0 = 0,2 ,
Estimada Esperada Estimada

conduzindo a

1,0
k= =5 .
0,2

6.7 DOIS MÉTODOS EQUIVALENTES PARA CALCULAR Z

Exemplo 6-7

Quatro urnas contêm bolas marcadas com 0 ou 1 nas seguintes


proporções:

Percentagem de Bolas na Urna, Marcadas com


Urna
0 1
A 70% 30%
B 70 30
C 30 70
D 20 80
Capítulo 6 – A Abordagem de Bühlmann 123

1
Uma urna é selecionada ao acaso (i.e., com probabilidade ) e quatro
4
bolas são selecionadas dessa urna, com reposição. O total dos valores é 2. Mais
quatro bolas são selecionadas da mesma urna. Calcule o valor total esperado para o
segundo conjunto de quatro bolas usando a fórmula de credibilidade de Bühlmann.

Solução

Usando a distribuição binomial, calculamos o valor esperado da variância


de processo como

[ ]
1
( 4) (0,7)(0,3) + ( 4) (0,7)( 0,3) + ( 4) ( 0,3)( 0,7) + ( 4) ( 0,2)( 0,8) = 0,79 .
4

O valor esperado das médias hipotéticas é

[ ]
1
( 4) (0,3) + ( 4) (0,3) + ( 4) (0,7) + ( 4) (0,8) = 2 ,10 .
4

O valor esperado dos quadrados das médias hipotéticas é

1
4 [[
( 4 )( 0,3) ] + [( 4)(0,3)] + [( 4)( 0,7) ] + [(4 )( 0,8)] ] = 5,24
2 2 2 2
.

A variância das médias hipotéticas é

5,24 − (2 ,10) = 0,83 .


2

Então, temos
Capítulo 6 – A Abordagem de Bühlmann 124

0,79
k= = 0,95
0,83

n 1
Z= = = 0,513 .
n + k 1 + 0,95

Finalmente, a estimativa de compromisso de Bühlmann é

C = ZR + ( 1 − Z ) R = ( 0,51)( 2) + ( 0,49 )(2,10) = 2,049 .

O próximo exemplo é uma leve modificação do Exemplo 6.7.

Exemplo 6.8

Sejam quatro urnas aquelas definidas como no Exemplo 6.7. Novamente,


uma urna é selecionada aleatoriamente e são selecionadas quatro bolas da urna,
com reposição, sendo 2 o total dos valores encontrado. Desta vez, apenas uma bola
adicional é tirada da urna selecionada. Qual o valor esperado da próxima extração,
usando-se a fórmula de credibilidade de Bühlmann?

Solução

O valor esperado da variância de processo é

[ ]
1
( 0,7)( 0,3) + (0,7)(0,3) + ( 0,3)( 0,7 ) + (0,2)(0,8) = 0,1975 ,
4

usando a distribuição binomial. O valor esperado das médias hipotéticas é

1
( 0,3 + 0,3 + 0,7 + 0,8) = 0,525 .
4

O valor esperado dos quadrados das médias hipotéticas é


Capítulo 6 – A Abordagem de Bühlmann 125

1
4
( )
(0,3) 2 + ( 0,3) 2 + (0,7) 2 + ( 0,8) 2 = 0,3275 .

A variância das médias hipotéticas é

0,3275 − (0,525) = 0,051875 .


2

Então, temos

0,1975
k= = 3,8072
0,051875

n 4
Z= = = 0,513 .
n + k 4 + 3,8072

(Note que aqui n = 4 porque só uma bola é tirada durante cada um dos quatro
períodos individuais de observação. As quatro bolas correspondem a quatro
períodos de observação.) Finalmente, a estimativa de compromisso de Bühlmann é

C = ZR + ( 1 − Z ) R = (0,51)(0,5) + ( 0,49 )(0,525) = 0,51225 .

Observamos, aqui, que nos Exemplos 6.7 e 6.8 os valores de Z são


idênticos e a estimativa de Bühlmann do Exemplo 6.7 é exatamente n = 4 vezes
aquela do Exemplo 6.8, considerando-se que quatro vezes muitas bolas são
extraídas. Isso nos conduz ao seguinte teorema.

Teorema 6.1

Suponha dois casos diferentes: (1) em um único período de observação


há n tentativas independentes, Xl,X2, ... ,Xn, cada uma com a função de distribuição
de probabilidade F ( x Θ) , e (2) em cada um dos n períodos de observação há uma
única tentativa, Xi, i = 1, 2, ... , n , onde os Xi’s são independentes e identicamente
Capítulo 6 – A Abordagem de Bühlmann 126

distribuídos, com função de distribuição de probabilidade F ( x Θ) , onde Θ é um


vetor aleatório de valores de parâmetros. Então o fator de credibilidade para o caso
(l) é igual ao fator de credibilidade do caso (2).

Demonstração

O fator de credibilidade para o caso (1) é

1 1
=

1+
[ (
EΘ Var X 1 + X 2 +K+ X n Θ )]
1+
[ ( )]
E Θ n ⋅ Var X 1 Θ

([
VarΘ E X 1 + X 2 +K+ X n Θ]) Var ( n ⋅ E [ X Θ])
Θ 1

1
=

1+
[ (
n ⋅ EΘ Var X 1 Θ )]
n2 ⋅ Var ( E[ X Θ])
Θ 1

n
=

n+
[ (
E Θ Var X 1 Θ)]
Var ( E [ X Θ])
Θ 1

que é o fator de credibilidade do caso (2), como descrito.

6.8 COMENTÁRIOS ADICIONAIS

Em todos os exemplos discutidos aqui, inclusive o último, supomos que os


valores dos parâmetros ( e.g., a probabilidade de obter um "l") não muda com o
passar do tempo. Em algumas aplicações, isso pode não ser uma suposição realista
e outros tipos de modelos podem ser requeridos para obter resultados úteis. Um
modelo que poderia ser usado nesta situação é o modelo de filtro de Kalman.

Como mencionado anteriormente, sob o paradigma Bayesiano supõe-se


que certos parâmetros têm distribuições de probabilidade. Para obter resultados
razoáveis, deve-se imaginar que algumas dessas distribuições de probabilidade
Capítulo 6 – A Abordagem de Bühlmann 127

mudam ao longo do tempo. A versão Bayesiana do modelo de filtro de Kalman


pode ser usada em tais situações. Este tipo de modelo é discutido em Klugman
[1992] 2 e em Meinhold e Singpurwalla [1983].

2
Veja Capítulo 4.
Capítulo 6 – A Abordagem de Bühlmann 128

6.9 EXERCÍCIOS

6.1 Introdução

6.2 Elementos Básicos da Abordagem de Bühlmann

6-1 Você é informado de que (i) o fator de credibilidade de Bühlmann da


1
experiência de um segurado individual é baseado numa única observação,
3

e (ii) a perda esperada subjacente do segurado individual é constante ao longo


do tempo. Determine o fator de credibilidade de Bühlmann para a experiência
do risco individual depois de quatro observações.

2
Resposta: .
3

6-2 Faça n = 2, k = 154 / 11, e H = E[ X 2 X 1 = 0] , onde Xl e X2 são as variáeis


definidas no Capítulo 4. Use a Equação (1.1) e a Tabela 4.7 para calcular

[ ]
E X 3 X 2 = R , para R = 0, 2, e 14.

49 57 105
Respostas: ; ; .
32 32 32

6-3 Duas urnas contêm bolas marcadas com 0, 1, ou 2, nas proporções seguintes :

Percentagem de Bolas na Urna, Marcadas com


Urna
0 1 2

A 20% 40% 40%

B 70 20 10
Capítulo 6 – A Abordagem de Bühlmann 129

1
Uma urna é selecionada ao acaso com probabilidade e duas bolas são
2
extraídas dessa urna, com reposição. A soma das marcas nas duas bolas é 2.
Duas bolas adicionais são tiradas, com reposição, da urna selecionada.
Usando a abordagem de credibilidade de Bühlmann com n = 1, determine o
seguinte.

(a) A variância das médias hipotéticas.

(b) O valor esperado da variância de processo.

(c) O valor de k.

(d) O fator de credibilidade Z.

(e) A soma esperada das marcas nas duas bolas adicionais.

1,00
Respostas: (a) 0,64 (b) 1,00 (c) (d) 0,39 (e) 1,756.
0,64

6-4 Uma população segurada de motoristas de automóvel pode ser dividida em


dois grupos de tamanho igual. Cada participante do primeiro grupo tem uma
chance de 20% de sofrer um acidente a cada ano, e a probabilidade
correspondente para os participantes do outro grupo é de 40%. Ninguém pode
ter mais de um acidente por ano. Todos os indivíduos da população têm a
seguinte distribuição de severidade:

Probabilidade Montante da Perda


0,80 $100
0,10 200
0,10 400
Capítulo 6 – A Abordagem de Bühlmann 130

Supondo-se que os motoristas dentro de cada grupo são mutuamente


independentes, calcule as solicitações abaixo:

(a) A variância das médias hipotéticas.

(b) O valor esperado da variância de processo.

(c) O valor de k.

(d) O fator de credibilidade para uma experiência de um segurado individual.

230 7
Respostas: (a) 196 (b) 6.440 (c) (d) .
7 237

6-5 Há uma nova marca de biscoitos de chocolate em camadas no mercado. Você


compra uma caixa de 50 biscoitos e acha um total de 265 camadas. Sua
pesquisa anterior o levou a esperar 4,80 camadas por biscoito, com uma
variância entre marcas de 0,20. (i.e., a variância das médias hipotéticas é
0,20.) Supõe-se que o número de camadas por biscoito tem uma distribuição
de Poisson para cada uma das marcas. Usando o modelo de Bühlmann, estime
o número médio de fatias por biscoito para a nova marca.

Resposta: 5,14.

6-6 Cada indivíduo dentro de uma classe homogênea de segurados tem uma
distribuição de Poisson com uma média constante de 0,10. Sob a abordagem
de Bühlmann, qual é o fator de credibilidade a ser atribuído à experiência de
Capítulo 6 – A Abordagem de Bühlmann 131

um segurado individual dentro desta classe de riscos? (Sugestão: Calcule


primeiro a variância das médias hipotéticas.)

Resposta: 0.

6-7 Suponha que o número de reivindicações de seguro, R, apresentado por um


indivíduo em um único ano de apólice tem uma distribuição binomial com
parâmetros n = 3 e Θ , onde Θ tem função de densidade

6(θ − θ 2 ) 0 <θ<1
g (θ) = 
 0 para outros casos .

Dado que uma única reivindicação é apresentada pelo indivíduo durante


aquele ano da apólice, determine o fator de credibilidade de Bühlmann.

3
Resposta: .
7

6-8 Você é informado de que (i) Xl, X2, ... , Xn são variáveis aleatórias mutuamente
independentes e identicamente distribuídas com média M e variância V, (ii) M
tem média 2 e variância 4, e (iii) V tem média 8 e variância 32. Determine o
valor do fator de credibilidade de Bühlmann depois de observar as obtenções
das primeiras três variáveis Xl, X2 e X3.

Resposta: 0,60.
Capítulo 6 – A Abordagem de Bühlmann 132

6.3 Características do Fator de Credibilidade

6-9 Escolha exatamente uma das palavras ou valores nos parênteses em cada das
seguintes sentenças:

(a) Z é uma função (crescente/descrescente) de n.

(b) No caso limite, com n 


→ ∞ , Z se aproxima (0 / 1).

(c) Z é uma função(crescente/descrescente) de k.

(d) Z é uma função(crescente/descrescente) do valor esperado da variância de


processo.

(e) Z é uma função(crescente/descrescente) da variância das médias


hipotéticas.

Respostas: (a) crescente (b) 1 (c) decrescente

(d) descrescente (e) crescente.

6.4 Exemplos Adicionais das Estimativas de Bühlmann

6-10 O número de sinistros por ano de apólice para um único risco tem uma
distribuição de Poisson com parâmetro A. Por sua vez, A tem uma distribuição
gama a priori com função de densidade g ( a ) = a ⋅ e − a , para 0 < a < ∞ .
Determine o fator de credibilidade de Bühlmann a ser atribuído a uma única
observação.

1
Resposta: .
2

6-ll O número de sinistros por ano de apólice para um segurado individual tem
uma distribuição de Poisson com parâmetro A. A distribuição a priori de A é a
Capítulo 6 – A Abordagem de Bühlmann 133

distribuição uniforme no do intervalo (1 , 3). Um segurado individual tem


exatamente uma reivindicação durante o primeiro ano da apólice. Use o
modelo de Bühlmann para estimar o número esperado de sinistros do segurado
durante o próximo ano de apólice.

13
Resposta: .
7

6-12 Para cada participante de uma classe de segurados a probabilidade de sinistros


dentro de um ano de apólice é distribuída uniformemente no intervalo fechado
[ 0,07 , 0,13]. Cada segurado não pode ter mais de uma reivindicação durante
o ano de apólice. As duas distribuições de severidade seguintes são aplicadas:

Montante de Indenizações
Distribuição
da Severidade $5 $10 $20

Tipo 1 1/3 1/2 1/6

Tipo 2 1/2 1/4 1/4

Supondo que (i) as distribuições de freqüência e de severidade são


estocasticamente independentes e (ii) 60% dos riscos são do Tipo 1 e 40% são
do Tipo 2. Calcule o seguinte:
Capítulo 6 – A Abordagem de Bühlmann 134

(a) A variância das médias hipotéticas.

(b) O valor esperado da variância de processo.

(c) O valor de k.

(d) O fator de credibilidade para a experiência de um único segurado.

1
Respostas: (a) 0,03 (b) 11,97 (c) 399 (d) .
400

6-13 O número de sinistros, Ni, durante o i-ésimo ano de apólice, para um segurado
individual, tem uma distribuição de Poisson. A freqüência esperada de
sinistros anual da população inteira de segurados é uniformemente distribuída
no intervalo ( 0 , l ). A freqüência de sinistros de um indivíduo é constante ao
longo do tempo. Um particular segurado apresentou um total de três sinistros
durante os três primeiros anos da apólice, de forma que Nl + N2 + N3 = 3.
Usando o modelo de credibilidade de Bühlmann, estime a freqüência anual de
sinistros esperada para o quarto ano de apólice.

2
Resposta: .
3

6.5 Componentes da Variância Total

6-14 Determine a variância total se (i) o valor esperado da variância de processo é


6,5 , e (ii) a variância das médias hipotéticas é 4,2.

Resposta: 10,70.

6-15 Usando a notação do Teorema 5.2, determine a variância das médias

[ ]
hipotéticas dado que Var( Y ) = 8 e E X Vary (Y X ) = 3 .
Capítulo 6 – A Abordagem de Bühlmann 135

Resposta: 5.

6-16 Seja E[X] o valor esperado da variável aleatória X e g(Y) uma função da
variável aleatória Y para a qual E[Y] existe. Quais das seguintes declarações
são verdadeiras?

I - E [ X ] = E Y [ E ( X Y )]

II - Var( X ) = EY [Var ( X Y )] + VarY ( E[ X Y ])

[ [
III - E [g( Y ) ] = EY E X g ( y) X ]]
Respostas: As declarações I e II são verdadeiras.

6.6 Aplicações Práticas do Modelo de Bühlmann

6-17 Um grupo de 340 segurados em uma área de alta criminalidade sofre 210
roubos durante um período de um ano de observação, conforme a seguinte
tabela.

Número Número de Segurados


de Sinistros
0 200

1 80

2 50

3 10

Supõe-se que, para cada segurado, o número de roubos segue uma distribuição
de Poisson, mas a média de cada distribuição pode variar entre os segurados.
Capítulo 6 – A Abordagem de Bühlmann 136

Um segurado individual experimentou dois sinistros durante o período de um


ano de observação. Calcule o seguinte:

(a) O número médio de sinistros observados por segurado.

(b) O valor esperado da variância de processo.

(c) A variância das médias hipotéticss.

(d) O valor de k.

(e) O fator de credibilidade para a experiência de um segurado individual.

(f) A estimativa de credibilidade de Bühlmann do número de sinistros para


este segurado durante o próximo período de um ano de observação.

Respostas: (a) 0,618 (b) 0,618 (c) 0,088 (d) 7,02

(e) 0,125 (f) 0,791.

6-18 Para uma grande amostra de segurados, a freqüência relativa observada de


sinistros durante um período de observação é como segue.

Número Freqüência Relativa de


de Sinistros Sinistros
0 61,9%
1 28,4
2 7,8
3 1,6
4 0,3
5 ou mais 0,0
Capítulo 6 – A Abordagem de Bühlmann 137

Suponha que a distribuição subjacente é Poisson e constante ao longo do


tempo. Calcule o seguinte.

(a) O número médio de sinistros observados por segurado.

(b) O valor esperado da variância de processo.

(c) A variância das médias hipotéticas.

(d) O valor de k.

(e) O fator de credibilidade para a experiência de um segurado individual.

(f) O número esperado de sinistros durante o período n + 1, para um segurado


que não teve sinistro durante o período n.

Respostas: (a) 0,50 (b) 0,50 (c) 0,038 (d) 13,20

(e) 0,07 (f) 0,465.

6-19 Uma companhia de seguro tem dois grupo de apólices de seguro de acidente
de trabalho. Os montantes agregados de indenizações (em milhões de
unidades monetárias) durante os primeiros três anos da apólice estão
resumidos na Tabela abaixo. Use o modelo de Bühlmann para tentar estimar
o montante agregado de indenizações durante o quarto ano da apólice para
cada um dos dois grupos de apólices. Não faça qualquer suposição sobre a
distribuição de probabilidade dos montantes agregados de indenizações. Não
suponha qualquer inflação. Mostre que para a$ < 0 o procedimento fica
inviabilizado.
Capítulo 6 – A Abordagem de Bühlmann 138

Montante Agregado de Indenizações


Grupo de Ano de Apólice
Apólices 1 2 3

1 5 8 11

2 2 8 14

6-20 Uma companhia de seguro tem dois grupos de apólices de seguro de acidente
de trabalho. Os montantes agregados de indenizações (em milhões de
unidades monetárias) para os primeiros quatro anos da apólice estão
resumidos na tabela abaixo. Use o modelo de Bühlmann para estimar o
montante agregado de indenizações durante o quinto ano da apólice para cada
um dos dois grupos de apólices. Não faça suposições sobre a distribuição de
probabilidade dos montantes agregados de indenizações. Não suponha
inflação.

Montantes Agregados de Indenizações

Grupo de Ano de Apólice


Apólices
1 2 3 4

1 4 10 8 6

2 12 14 13 13

263 457
Respostas: ; .
36 36
Capítulo 6 – A Abordagem de Bühlmann 139

6.7 Dois Métodos Equivalentes para Calcular Z

6-21 Três urnas, contêm cada uma bolas marcadas com 0 ou l, nas seguintes
proporções:

Percentagem de Bolas Marcadas com


Urna
0 1

A 10% 90%

B 60 40

C 80 20

1
Uma urna é selecionada ao acaso com probabilidade , e três bolas são
3
extraídas, com reposição, da urna selecionada. O total dos números nas três
bolas é l. Três bolas adicionais são extraídas, com reposição, da urna
selecionada. Usando o modelo de credibilidade de Bühlmann com n = 1,
estime o total esperado dos números nas três bolas. Recalcule o total esperado
dos números usando n = 3. De acordo com o Teorema 6.1, os resultados
devem ser os mesmos.

Resposta: 1,193.

6-22 Refazer o Exercício 6-3, usando n = 2.

Resposta: 1,756.

1
6-23 Um de três dados de multi-face é selecionado ao acaso, com probabilidade .
3
Um dado tem quatro lados (numerados 1, 2, 3, e 4), o segundo dado tem os
seis lados habituais (numerados 1,2. . . ,6), e o terceiro dado tem oito lados
Capítulo 6 – A Abordagem de Bühlmann 140

(numerados 1, 2, ... , 8). Cada dado é honesto, de forma que cada lado tem
uma chance igual de ser sorteado. O dado selecionado é jogado uma vez, o
resultado é observado, após o que o dado é jogado uma segunda vez.
Desejamos estimar o resultado da segunda jogada.

(a) Usando o modelo de Bühlmann, estime o resultado da segunda jogada, se


o resultado da primeira jogada foi um 7.

(b) Usando o Teorema de Bayes, determine a distribuição preditiva da


segunda jogada, R2, se o resultado da primeira jogada, Rl, foi um 7.

(c) Qual é a estima pontual Bayesiana do resultado da segunda jogada, se a


função de perda tipo erro quadrado é especificada?

(d) Qual é a estima pontual Bayesiana do resultado da segunda jogada, se a


função de perda tipo erro absoluto é especificada?

(e) Refaça as partes (c) e (d) supondo que P[ R2 = i] =


i
, para i = 1, 2, ... , 8.
36

(f) Qual é a estimativa pontual Bayesiana do resultado da segunda jogada,


dado que a primeiro jogada foi um 7; a distribuição de probabilidade do
item (e) se aplica; e a função de perda tipo quase constante é especificada.

1127
. 1
Respostas: (a) (b) , para i = 1, 2, ..., 8 (c) 4,5 (d) 4,5
274 8

2
(e) 5 ; 6 (f) 8.
3
Capítulo 7 – Modelo de Bühlmann-Straub 141

CAPÍTULO 7

MODELO DE BÜHLMANN-STRAUB

7.1 INTRODUÇÃO

O modelo de Bühlmann-Straub, uma generalização do modelo de


Bühlmann do Capítulo 6, é de grande interesse prático. Uma deficiência do modelo
de Bühlmann é que ele não permite diferentes números de unidades de exposição
ou diferentes distribuições de sinistros durante os anos de apólice. Assim, em
seguro de grupo, por exemplo, o modelo de Bühlmann não estaria apto a manusear
mudanças no número de participantes segurados do grupo por dois ou mais
períodos de observação. O modelo de Bühlmann-Straub soluciona estas
deficiências.

7.2 MODELO PARA UM SEGURADO COM DISTRIBUIÇÃO DE


PROBABILIDADE SUBJACENTE CONHECIDA

7.2.1 Elementos básicos

Para i = 1, 2, ... , n+1, seja Xi o montante agregado de indenização de um


único segurado durante o i-ésimo período de observação (por exemplo, o i-ésimo
ano de apólice). Como antes, queremos calcular o valor esperado da variável
aleatória Xn+l para o período n + 1, conhecidas as realizações Xl = xl, X2 = x2, ... , Xn
= xn , para n períodos anteriores. Este valor esperado é representado por

[ ]
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n . Usamos as seguintes premissas para esta versão

do modelo de Bühlmann-Straub:
Capítulo 7 – Modelo de Bühlmann-Straub 142

(1) Para j = 1, 2, ... , n + 1, a distribuição de cada Xj depende de um


parâmetro Θ .

(2) Dado Θ , as variáveis aleatórias Xl, X2, ..., Xn+l são condicionalmente
independentes e identicamente distribuídas.

Essas suposições implicam que as variáveis aleatórias Xl, X2, ..., Xn+l, são
identicamente distribuídas. Note, entretanto, que elas não são necessariamente
independentes incondicionalmente.

Generalizamos o modelo de Bühlmann, do Capítulo 6, requerendo que

[
µ( Θ) = E X j Θ ]
e

(
ν(Θ) = m j ⋅ Var X j Θ ,)
para j = l, 2, ... , n + l, onde mj é uma constante conhecida representando o
montante de exposição durante o j-ésimo período de observação. Supomos que nem
µ( Θ) e nem ν( Θ) dependem do período de observação j. Definimos

m = ∑ mj .
j =1

(Recorde que, no Capítulo 6, foi requerido que todos os pesos, mj, fossem iguais.)
Uma outra diferença entre o modelo do Capítulo 6 e o modelo de Bühlmann-Straub
é que neste os Xj representam a média dos montantes de indenização por unidade de
Capítulo 7 – Modelo de Bühlmann-Straub 143

exposição, em lugar do montante agregado de indenizações como empregado


anteriormente nesse texto.

Sob o modelo de Bühlmann-Straub, nossa meta é produzir uma


estimativa pontual de E [ µ( Θ) X 1 = x1 , X 2 = x 2 ,K , X n = x n ] , a expectância condicional
de µ( Θ) , dado que Xl = xl, X2 = x2, ... , Xn = xn. Lembre-se que, a partir do Teorema
8.4, isto é equivalente a produzir uma estimativa pontual de

[ ]
E X n + 1 X 1 = x1 , X 2 = x 2 , K , X n = x n , a expectância condicional de Xn+l, dadas as

realizações Xl = xl, X2 = x2, ... , Xn = xn, uma vez que E[ X n+1 Θ] = µ( Θ) . Como no
modelo de Bühlmann, escolhemos um estimador linear da expectância condicional
de µ( Θ) , da forma

a 0 + a 1 X 1 + a 2 X 2 +K+a n X n .

O estimador linear escolhido é tal que seus coeficientes, isto é, as


quantidades a 0 , a 1 , a 2 ,K , a n , minimizam a

[
E ( µ(Θ) − a 0 − a 1 X 1 − a 2 X 2 −K− a n X n )
2
].
(7.1)

Os coeficientes a 0 , a 1 , a 2 ,K , a n são obtidos diferenciando-se a Expressão


(7.1) n + l vezes, primeiro com respeito a a0, em seguida com respeito a al, e assim
por diante, e finalmente com respeito a an, e igualando-se cada derivada a zero. As
n + l equações resultantes e n + l incógnitas são então resolvidos para a0, al, a2, ... ,
an. Os resultados são

a 0 = (1 − Z ) ⋅ E[ µ(Θ)] ,

onde
Capítulo 7 – Modelo de Bühlmann-Straub 144

Z=
∑m j
=
m
,
∑ m + E[ν(Θ)] / Var( µ( Θ)) m + ν / a
j

mj
aj =
∑m j + E[ν( Θ)] / Var( µ(Θ))

para j = 1, 2, ... , n. Assim, o estimador pontual da esperança condicional de µ( Θ)


é

Z ⋅ X + (1 − Z ) ⋅ E[ µ(Θ)] , (7.2)

onde

∑m X
X=
j j

∑m j

e Z é o mesmo definido acima. A Expressão (7.2) é da mesma forma que a Equação


(l.1) com R = X e H = E[µ( Θ) ] . Note que o estimador da Expressão (7.2) é uma
função linear das variáveis aleatórias Xl, X2, ..., Xn , desde que X seja uma função
linear de Xl, X2, ..., Xn.

7.2.2 Exemplos

Nos dois exemplos que seguem, aplicamos o modelo de Bühlmann-


Straub descrito na Seção 7.2.1. Nestes exemplos supomos que todos as funções de
probabilidades necessárias são conhecidas de forma que podemos obter resultados
para um único segurado. Como discutido na Seção 7.3, quando tais distribuições
não podem ser empregadas, precisamos dos dados experimentais sobre pelo menos
dois segurados para obter os resultados desejados.
Capítulo 7 – Modelo de Bühlmann-Straub 145

Exemplo 7.1

Considere o Exemplo 6.8 na página 96, no qual se tratou das quatro


urnas. Suponha que, durante o primeiro período de observação, retiramos quatro
bolas, das quais exatamente duas estão marcadas com 1. Se cinco bolas serão
retiradas durante o segundo período de observação, qual é a melhor estimativa sob
o modelo de Bühlmann-Straub, para um segurado, do número de bolas marcadas
com 1 retiradas durante este segundo período?

Solução

Sejam Cl e C2 o número total de bolas marcadas com 1 retiradas durante


cada um dos dois períodos de observação, respectivamente. Sejam X1 e X2 o
número médio de bolas marcadas com 1 retiradas durante os mesmos dois períodos
de observação, respectivamente. Para i = 1, 2, ... , 9, faça Yj representar o resultado
da i-ésima retirada da urna de forma que

C1 Y1 + Y2 + Y3 + Y4
X1 = =
4 4

C2 Y5 + Y6 + Y7 + Y8 + Y9
X2 = = .
5 5

Neste exemplo temos n = 1 período de observação. Os números de


unidades de exposição são ml = 4 para o primeiro período de observação e m2 = 5
para o segundo período de observação, cujo resultado estamos tentando prever. O
número total de unidades de exposição durante todos os períodos de observação
passados (que no caso é apenas um) é m = ml = 4. Porque nos foi dito que Cl = 2,
Capítulo 7 – Modelo de Bühlmann-Straub 146

C1 2 1
segue que X 1 = = = . Buscamos a estimativa de Bühlmann-Straub de
m1 4 2

[ ]
E C2 C1 = 2 , ou, equivalentemente,

 1  1
E  m2 X 2 X 1 =  = m2 ⋅ E  X 2 X 1 =  .
 2  2

Lembre-se que no Exemplo 6.8 o valor esperado das médias hipotéticas,


µ , foi 0,525, de forma que para j = 1, 2 e i = 1, 2, ... , 9 , temos

[[ ]] [
0,525 = µ = EΘ [ µ(Θ) ] = EΘ E X j Θ = EΘ E[Y Θ] , ]

onde o parâmetro Θ representa a urna selecionada. Também, a partir do Exemplo


6.8, a variância das médias hipotéticas foi

( [ ])
0,051875 = Var ( µ(Θ)) = VarΘ E Yi Θ

e o valor esperado da variância de processo foi

[ ( )]
0,1975 = E Θ [ν( Θ)] = EΘ Var Yi Θ ,

de forma que, como no Exemplo 6.8, k = 3,8072 e Z = 0,51. A estimativa de


 1
compromisso de Bühlmann-Straub para E  X 2 X 1 =  é, então
2  

ZR + ( 1 − Z ) µ = ( 0,51)( 0,50) + ( 0,49)( 0,525) = 0,51225 ,


Capítulo 7 – Modelo de Bühlmann-Straub 147

onde R = Xl = 0,50. Conseqüentemente, a estimativa de compromisso de

Bühlmann-Straub para E [C2 C1 = 2] = m2 ⋅ E  X 2 X 1 =  é m2 vezes a estimativa de


 1
 2

 1
compromisso de Bühlmann-Straub para E  X 2 X 1 =  , ou seja
 2

( 5) ( 0,51225) = 2,56125 .

No próximo exemplo, expandimos o exemplo anterior para dar um


melhor entendimento do modelo de Bühlmann-Straub.

Exemplo 7.2

Sejam as mesma condições estabelecidas no Exemplo 7.1, exceto que


3
agora observamos X 2 = . Se seis bolas serão retiradas durante o terceiro período
5
de observação, qual é a melhor estimativa sob o modelo de Bühlmann-Straub, para
um segurado, do número de bolas marcadas com 1, tiradas durante este terceiro
período?

Solução

Neste exemplo há n = 2 períodos de observação. Os números de unidades


de exposição são ml = 4 e m2 = 5 para os primeiros dois períodos de observação,
respectivamente, e m3 = 6 para o terceiro período de observação, cujo resultado
estamos tentando prever. O número total de unidades de exposição durante todos os
períodos de observação passados combinados (que agora são dois) é m = m1+m2 = 4
1 3
+ 5 = 9. Finalmente, temos os resultados X 1 = e X 2 = . Então
2 5

 1   3
4  + 5 
m X + m2 X 2  2   5 5
R= 1 1 = = ,
m 9 9
Capítulo 7 – Modelo de Bühlmann-Straub 148

m 9
Z= = = 0,7027 ,
m + k 9 + 3,8072

onde k = 3,8072 é novamente trazido do Exemplo 6.8. A estimativa de


 1 3
compromisso de Bühlmann-Straub para E  X 3 X 1 = , X 2 =  , a média das seis
 2 5

bolas tiradas durante o terceiro período de observação, é

 5
ZR + ( 1 − Z ) µ = ( 0,7027)  + ( 0,2973)( 0,525) = 0,5465 .
 9

Conseqüentemente, a estimativa de compromisso de Buhlmann-Straub de


C3, o número de bolas marcadas com 1 a serem tiradas durante o terceiro período

de observação, representada por E[ C3 C1 = 2, C2 = 3] = m3 ⋅ E  X 3 X 1 = , X 2 =  , é


 1 3
 2 5

( 6) ( 0,5465) = 3,279 .

7.3 MODELO PARA DOIS OU MAIS SEGURADOS

7.3.1 Elementos básicos

Nesta seção discutimos a aplicação do modelo de Buhlmann-Straub sem


usar qualquer distribuição de probabilidade subjacente. Este modelo generaliza
simultaneamente o modelo para um segurado descrito na Seção 7.2 e o modelo que
requer números iguais de unidades de exposição descrito na Seção 6.6.1. Para
facilidade de discussão, usaremos a linguagem nos termos próprios de seguros.

Sejam r (r > 2) grupos de segurados tal que o i-ésimo segurado tem ni


anos de dados experimentais, i = 1, 2, ... , r. Seja mij o número de unidades de
exposição para o i-ésimo segurado durante o j-ésimo ano de apólice, i = 1, 2, ... , r e
Capítulo 7 – Modelo de Bühlmann-Straub 149

j = 1, 2, ... , ni + l . Seja Xij a variável aleatória que representa o montante médio de


indenizações por unidade de exposição do i-ésimo segurado durante o j-ésimo ano
de apólice.

Seja Xi = (Xi,1 , Xi,2 , ... , X i , n ) o vetor aleatório de montantes médios de


i

indenizações para o i-ésimo segurado, i = 1, 2, ... , r. Fazemos as seguintes


suposições:

(1) Supõe-se que os vetores aleatórios Xl, X2, ... , Xr são mutuamente
independentes. Em outras palavras, a experiência de um segurado não
influencia a experiência de um outro diferente segurado.

(2) Para i = 1, 2, ... , r, a distribuição de cada elemento de Xi depende de


um parâmetro de risco θi (desconhecido), onde θi é uma realização
da variável aleatória Θ i .

(3) As variáveis aleatórias Θ 1 , Θ 2 ,K , Θ r são mutuamente independentes e


identicamente distribuídas.

(4) Dados i e Θ i , as variáveis aleatórias Xi,1 , Xi,2 , ... , X i , n i


são
mutuamente e condicionalmente independentes.

Estas suposições são semelhantes àquelas do modelo da Seção 6.6.1.


Aqui, entretanto, generalizamos o modelo de Bühlmann da Seção 6.6.1, requerendo
apenas que

[
µ(Θ i ) = E X ij Θ i ]
e

(
ν(Θ i ) = mij ⋅ Var X ij Θ i ),
Capítulo 7 – Modelo de Bühlmann-Straub 150

para i = 1, 2, ... , r e j = 1, 2, ..., ni . Como na Seção 7.2.1, supomos que nem µ(Θ i )

e nem ν(Θ i ) dependem do período de observação j. O número total de unidades de


exposição atribuível ao i-ésimo segurado durante os primeiros ni anos de apólice é

ni

mi = ∑ mij
j =1

e o número total de unidades de exposição é

m = ∑ mi
i= 1

Lembre-se que a suposição (5) do modelo da Seção 6.6.1 exigiu que mij =
1 para todo o i e j. Assim, as suposições desta seção são menos restritivas do que as
da Seção 6.6.1. Então, os estimadores da média hipotética ( µ) , da variância de
processo esperada ( ν) , e da variância das médias hipotéticas ( a) são,
respectivamente,

1 r 1 r ni
µ=
$ X= ∑ m X = ∑∑ m X ,
m i =1 i i m i =1 j = 1 ij ij
(7.3)

onde

ni
1
Xi =
mi
∑m ij X ij ,
j =1

∑ ∑ m (X )
r ni
2
ij ij − Xi
i =1 j = 1
ν$ = (7.4)
∑(n − 1)
r

i
i =1
Capítulo 7 – Modelo de Bühlmann-Straub 151

−1
   r 
a$ = m − ∑ mi2  ∑ mi ( X i − X ) − ν$ (r − 1)  ,
1 r 2
(7.5)
 m i = 1   i =1 

onde ν$ está definido na Equação (7.4).

Pode-se mostrar que µ$ , ν$ e a$ são todos estimadores não viesados de


µ, ν e a , respectivamente. É possível que a$ seja negativo, um resultado
indesejável, uma vez que variâncias devem, é claro, ser não negativas.

ν$
O estimator de k é, então, k$ = , e o estimador do fator de credibilidade para o i-
a$
ésimo segurado, Zi, é

ni
Z$ i = .
n i + k$

O estimador de compromisso de Bühlmann-Straub do montante médio de


indenizações por unidade de exposição, para o i-ésimo segurado, é

X$ i = Z$ i X i + (1 − Z$ i ) µ$ , (7.6)

para i = 1, 2, ..., r. O estimador de compromisso de Bühlmann-Straub do montante


agregado de indenizações para o i-ésimo segurado é

C$ i = mi , n i +1 ⋅ X$ i ,

para i = l, 2, ..., r.

7.3.2 Exemplos

Ilustramos o procedimento da Seção 7.3.1 nos exemplos seguintes.


Capítulo 7 – Modelo de Bühlmann-Straub 152

Exemplo 7.3

Calcule a estimativa do montante agregado de indenizações a ser


observada durante o quarto ano de apólice em cada dos dois grupos cujos dados
para os três primeiros anos de experiência são apresentados na Tabela 7.1, abaixo.
Os montantes agregados estão em milhões de unidades monetárias. Não suponha
qualquer inflação.

TABELA 7.1

Grupo de Ano de Apólice


Segurado
1 2 3 4

1 Montante 8.000 11.000 15.000 -


agregado de
indenizações

Tamanho do 40 50 70 75
grupo

2 Montante 20.000 24.000 19.000 -


agregado de
indenizações

Tamanho do 100 120 115 95


grupo

Solução

Porque há dois grupos de segurados, r = 2. Primeiro calculamos o


montante médio de indenizações por pessoa durante cada ano de apólice para um
Capítulo 7 – Modelo de Bühlmann-Straub 153

dos grupos de segurados. Considerando que temos três anos de dados


experimentais para cada segurado, fixamos nl = 3 e n2 = 3.

Para o segurado 1, as medidas de exposição são mll = 40, ml2 = 50, m13 =
70, e ml4 = 75, de forma que

m1 = ∑ m1 j = 40 + 50 + 70 = 160
j =1

e a média dos montantes de indenização é

8000
x11 = = 200 ,
40

11000
x 12 = = 220 ,
50

15000
x 13 = = 214 ,29 .
70

Então

1 3
8.000 + 11.000 + 15.000
x1 =
m1
∑m 1j x 1j =
160
= 212,50 .
j= 1

Para o segurado 2, temos n2 = 3 anos de experiência e as medidas de exposição m21


= 100, m22 = 120, m23 = 115, e m24 = 95, logo

m2 = ∑ m2 j = 100 + 120 + 115 = 335


j= 1

e as médias dos montantes das indenizações são


Capítulo 7 – Modelo de Bühlmann-Straub 154

20.000
x 21 = = 200 ,
100

24.000
x 22 = = 200 ,
120

19.000
x 23 = = 165,22 .
115

Então,

1 3
20.000 + 24.000 + 19.000
x2 =
m2
∑m 2j x2 j =
335
= 188,06 .
j =1

O número total de unidades de exposição durante os primeiros três anos


de apólice é

m = ml + m2 = 160 + 335 = 495.

A estimativa da média total (a priori), através da Equação (7.3). é

1 2
µ=
$ x= ∑m x
m i =1 i i

=
1
495
[(160)(212,50) + ( 335)(188,06)] = 195,96 .

A estimativa da variância de processo esperada, através da Equação (7.4),


é

∑ ∑ m (x )
2 3
2
ij ij − xi
i =1 j = 1
ν$ = 2

∑ ( 3 − 1)
i= 1
Capítulo 7 – Modelo de Bühlmann-Straub 155

( 40)( 200 − 212 ,5) 2 + ( 50) ( 220 − 212,5) 2 + ( 70) ( 214,29 − 212,5) 2 +
+ ( 100) ( 200 − 188,06) + ( 120)( 200 − 188,06) + ( 115) (165,22 − 188,06)
2 2 2

=
2+ 2

= 25160
. ,58 .

A estimativa da variância das médias hipotéticas, através da Equação


(7.5), é

−1
  2 
a$ = m − ∑ mi2  ∑ mi ( x i − x ) − ν$( r − 1)
1 2 2

 m i =1   i =1 
(160)( 212,5 − 195,96) 2 + 
−1  

= 495 −

1
495
[ ]
 

(160) 2 + ( 335) 2  ( 335)(188,06 − 195,96) 2 −

( 25160
. ,58)(1) 
= 182,48 .

Então, a estimativa de k é

ν$ 25160
. ,58
k$ = = = 137,88 ,
a$ 182,48

e os fatores de credibilidade calculados para o dois segurados são

m1 160
Z$1 = = = 0,537
m1 + k$ 160 + 137 ,88

m2 335
Z$ 2 = = = 0,708 .
m2 + k$ 335 + 137,88
Capítulo 7 – Modelo de Bühlmann-Straub 156

Logo, as estimativas de Buhlmann-Straub dos montantes médios de


indenizações por unidade de exposição para o dois grupos de segurados, através da
Equação (7.6), são

x$1 = Z$ 1 x1 + (1 − Z$ 1 ) µ$

= (0,537 )( 212,50) + ( 0,463)(195,96) = 204 ,84

( )
x$ 2 = Z$ 2 x 2 + 1 − Z$ 2 µ$

= (0,708)(188,06) + ( 0,292)(195,96) = 190,37

Finalmente, as estimativas de Bühlmann-Straub dos montantes agregados


de sinistros para o dois grupos de segurados durante o quarto ano de apólice são

c$ 1 = m14 ⋅ x$1 = ( 75)( 204 ,84) = 15.363,00

c$ 2 = m24 ⋅ x$ 2 = ( 95)(190,37) = 18.085,15 .

Exemplo 7.4
Calcule o montante agregado de indenizações estimado a ser observado
durante o quarto ano de apólice em cada um dos dois grupos cujas experiências
para os três primeiros anos de apólice estão apresentadas na Tabela 7.2, abaixo.
(Note que este exemplo é idêntico ao Exemplo 7.3, exceto que os dados do
segurado 1 não estão disponíeis para o ano 1 da apólice.)
Capítulo 7 – Modelo de Bühlmann-Straub 157

TABELA 7.2

Grupo de Ano de Apólice


Segurado
1 2 3 4

1 Montante - 11.000 15.000 -


agregado de
indenizações

Tamanho do - 50 70 75
grupo

2 Montante 20.000 24.000 19.000 -


agregado de
indenizações

Tamanho do 100 120 115 95


grupo

Solução

Porque há dois grupos de segurados, r = 2. Calculamos primeiro o


montante médio de indenizações por pessoa durante cada ano de apólice para cada
um dos dois grupos de segurados.

Para o segurado 1, temos nl = 2 anos de experiência. Porque é irrelevante


quantos dados de anos passados temos para o segurado 1, denotamos as medidas de
exposição do segurado 1 como sendo mll = 50, ml2 = 70 e ml3 = 75, de forma
que

m1 = ∑ m1 j = 50 + 70 = 120
j =1

e os montantes médios de indenizações são


Capítulo 7 – Modelo de Bühlmann-Straub 158

11.000
x11 = = 220
50

15.000
x 12 = = 214 ,29 .
70

Então

1 2
11.000 + 15.000
x1 =
m1
∑m 1j x 1j =
120
= 216,67 .
j= 1

Para o segurado 2, temos n2 = 3 anos de experiência e as medidas de


exposição m21 = 100, m22 = 120, m23 = 115 e m24 = 95, de forma que

m2 = ∑ m2 j = 100 + 120 + 115 = 335


j =1

e os montantes médios de indenização são

20.000
x 21 = = 200
100

24.000
x 22 = = 200
120

19.000
x 23 = = 165,22 .
115

Então, da mesma forma que no Exemplo 7.3,

1 3
20.000 + 24.000 + 19.000
x2 =
m2
∑m 2j x2 j =
335
= 188,06 .
j =1
Capítulo 7 – Modelo de Bühlmann-Straub 159

O número total de unidades de exposição é

m = m1 + m2 = 120 + 335 = 455 .

A estimativa da média total (a priori), através da Equação (7.3), é

1 2
µ=
$ x= ∑m x
m i= 1 i i

=
1
455
[(120)(216,67) + ( 335)(188,06)] = 195,61 .

A estimativa da variância de processo esperada, pela Equação (7.4), é

∑ ∑ m (x )
2 ni
2
ij ij − xi
i =1 j = 1
ν$ =
∑ (n − 1)
2

i
i =1

(50)(220 − 216,67) 2 + ( 70)(214,29 − 216,67) 2


+ (100)( 200 − 188,06) + (120)( 200 − 188,06)
2 2

+ (115)(165,22 − 188,06)
2

=
1+ 2

= 30.768,83

A estimativa da variância das médias hipotéticas, através da Equação


(7.5), é

−1
 1 2  2 
a$ = m − ∑ mi2  ∑ mi ( x i − x ) − ν$( r − 1)
2

 m i =1   i =1 
Capítulo 7 – Modelo de Bühlmann-Straub 160

(120) (216,67 − 195,61) 2 


 

= 455 −

1
455
[ ]
−1 
( 120) 2 + ( 335) 2 + ( 335) (188,06 − 195,61) 2 
 
− ( 30.768,83)( 1) 

= 235,14 .

Então, a estimativa de k é

ν$ 30.768,83
k$ = = = 130,85 .
a$ 235,14

e as estimativas dos fatores de credibilidade para o dois segurados são

m1 120
Z$1 = = = 0, 478
m1 + k$ 120 + 130,85

m2 335
Z$ 2 = = = 0,719 .
m2 + k$ 335 + 130,85

Logo, as estimativas de Bühlmann-Straub dos montantes médios de


indenização por unidade de exposição para o dois grupos de segurados, através da
Equação (7.6), são

x$1 = Z$ 1 x1 + (1 − Z$ 1 ) µ$
= ( 0,478)( 216,67) + ( 0,522)(195,61) = 205,68

( )
x$ 2 = Z$ 2 x 2 + 1 − Z$ 2 µ$
= ( 0,719 )(188,06) + ( 0,281)(195,61) = 190,18 .
Capítulo 7 – Modelo de Bühlmann-Straub 161

Finalmente, as estimativas de Bühlmann-Straub dos montantes agregados


de indenizações para o dois grupos de segurados durante o quarto ano de apólice
são

c$1 = m13 ⋅ x$1 = ( 75)( 205,68) = 15.426,00

c$ 2 = m24 ⋅ x$ 2 = ( 95)(190,18) = 18.067,10 .

7.3.3 Resumo

A abordagem de Bühlmann-Straub para dois ou mais segurados pode ser


resumida como segue:

Meta: Determinar a estimativa de compromisso do montante


agregado de indenizações para cada um dos r segurados.

Passo 1: Determine o número de segurados, r > 2.

Passo 2: Determine o número de períodos de observação, nj, para


cada um dos r segurados.

Passo 3: Determine as medidas de exposição, mjj, para cada segurado


durante cada período de observação.

Passo 4: Calcule o montante médio de indenização, xij, para cada


segurado durante cada período de observação.

Passo 5: Calcule o montante médio de indenização, x i , para todos os


períodos de observação para cada segurado.
Capítulo 7 – Modelo de Bühlmann-Straub 162

Passo 6: Calcule a média geral estimada µ$ .

Passo 7: Calcule a estimativa da variância de processo esperada, ν$ .

Passo 8: Calcule a variância estimada das médias hipotéticas, a$ .

ν$
Passo 9: Calcule k$ = .
a$

Passo 10: Calcule o fator de credibilidade, Zj, para cada segurado.

Passo 11: Calcule a estimativa de compromisso de Buhlmann-Straub,


x$i , do montante médio de indenização por unidade de

exposição para cada segurado.

Passo 12: Calcule a estimativa de Buhlmann-Straub, c$ i , do montante


agregado de indenizações para cada segurado.

7.3.4 Desvantagens desta Abordagem

A estimativa da variância das médias hipotéticas poderia ser negativa. A


prática comum de usar uma estimativa de zero nesta situação normalmente não tem
uma justificativa razoável.

7.4 EXERCÍCIOS

7.1 Introdução

7-1 Qual das seguintes declarações melhor expressa a principal vantagem do


modelo de Bühlmann-Straub em relação ao modelo de Bühlmann?

I. O modelo de Bühlmann-Straub permite diferentes números de unidades de


exposição, nos anos passados da apólice.
Capítulo 7 – Modelo de Bühlmann-Straub 163

II. O modelo de Bühlmann-Straub permite uma maior variedade de funções


de perda estatísticas

III. O modelo de Bühlmann-Straub é matematicamente menos complexo,


exigindo menos sofisticação computacional.

Resposta: Somente a declaração I é verdadeira.

7.2 Modelo para um Segurado com Distribuições de Probabilidade


Subjacentes Conhecidas

7-2 Qual das seguintes declarações são verdadeiras para o modelo de


BühlmannStraub da Seção 7.2 ?

I. Este modelo é uma generalização daquele apresentado na Seção 6.6.1,


permitindo diferentes números de unidades de exposição por ano de
apólice.

II. Este modelo é mais restritivo do que aquele da Seção 6.6.1, porque este
modelo requer o conhecimento de um certo número de distribuições de
probabilidade.

Resposta: Ambas as declaração são verdadeiras.

7-3 Como as seguintes medidas estão interrelacionadas, baseado na notação do


modelo de Bühlmann-Straub da Seção 7.2?

(a) µ (b) EΘ [µ( Θ) ] (c) EΘ [ µ(Θ) X 1 ]

(d) E[ X 2 ] (e) E[ X 2 X 1 ]

Respostas: (a) = (b) = (d); (c) = (e).


Capítulo 7 – Modelo de Bühlmann-Straub 164

7-4 Considere o Exemplo 6.8 do capítulo anterior, no qual se trabalhou com


quatro urnas. Suponha que, durante o primeiro período de observação,
extraímos quatro bolas das quais exatamente três estavam marcadas com 1. Se
sete bolas serão extraídas durante o segundo período de observação, qual é a
melhor estimativa, para um segurado, sob o modelo de Bühlmann-Straub, do
número de bolas marcadas com 1 extraídas durante o segundo período?

Resposta: 4,47825.

7-5 Admita as mesmas condições do Exercício 7-4, exceto que agora observamos
2
X2 = . Se sete bolas serão extraídas durante o terceiro período de observação,
7
qual é a melhor estimativa, para um segurado, sob o modelo de Bühlmann-
Straub, do número de bolas marcadas com 1 extraídas durante o terceiro
período?

Resposta: 3,30862.

7.3 Modelo para Dois ou Mais Segurados

7-6 Calcule a estimativa do montante agregado de indenizações a ser observado


durante o quarto ano da apólice para cada um dos três grupos cujos dados
experimentais, para os três primeiros anos, estão apresentados na tabela
seguinte. Os montantes agregados de indenização estão em milhões de
unidades monetárias. Não suponha qualquer hipótese de inflação.
Capítulo 7 – Modelo de Bühlmann-Straub 165

Grupo de Ano da Apólice


Segurado
s 1 2 3 4

Montante Agregado
de Indenização
8.000 11.000 15.000 
1
Tamanho do Grupo 40 50 75 75

Montante Agregado
de Indenização
20.000 24.000 18.000 
2
Tamanho do Grupo 100 120 120 95

Montante Agregado
de Indenização
10.000 15.000 13.500 
3
Tamanho do Grupo 50 60 60 60

Respostas: 15.220,50; 18.060,45; 12.838,80.

7-7 Quais das seguintes declarações são verdadeiras para o modelo de


Bühlmann.Straub da Seção 7.3 ?

I. Este modelo é uma generalização daquele apresentado na Seção 6.6.1,


permitindo diferentes números de unidades de exposição por ano da
apólice e por segurado.

II. Este modelo generaliza aquele da Seção 7.2, suprimindo a exigência de


que todas as distribuições de probabilidade relevantes sejam conhecidas.

Resposta: Ambas as declarações são verdadeiras.


Capítulo 8 – Credibilidade e Inferência Bayesiana 166

CAPÍTULO 8

CREDIBILIDADE E INFERÊNCIA BAYESIANA

8.1 INTRODUÇÃO

Na Seção 10.3, mostramos que a estimativa de credibilidade de


Bühlmann é a melhor aproximação linear da estimativa Bayesiana do prêmio puro.
Neste capítulo, seguindo Ericson [1970] e Jewell [1974], apresentamos (sem
demonstração) um teorema que mostra que a estimativa de credibilidade de
Bühlmann é igual à estimativa Bayesiana do prêmio puro para uma grande classe
de problemas. Usamos as distribuições de Bernoulli, Poisson e Normal para
ilustrar estes resultados. Começamos com algumas definições.

8.2 DISTRIBUIÇÕES A PRIORI CONJUGADAS

Suponha que H é uma hipótese e que B é um evento. Então, podemos


usar P[H] para representar nosso grau de crença inicial (ou a priori) em H.
Chamamos P[H] de probabilidade a priori de H. De acordo com a definição de
probabilidade condicional, podemos considerar P[ B H ] para representar a
probabilidade condicional do evento B, dada a hipótese H. Entretanto, quando
considerada como uma função de H, a expressão P[ B H] é chamada de
verossimilhança de H em B, sendo um elemento crucial de análise Bayesiana.
Finalmente, P[ H B ] é chamada de probabilidade a posteriori de H.

É útil neste momento relembrar o teorema de Bayes, expresso na


notação deste capítulo como
Capítulo 8 – Credibilidade e Inferência Bayesiana 167

P[ B H] ⋅ P[ H ]
P[ H B] = , (8.1)
P[ B]

contanto que P[B] > 0. Ignorando-se P[B], que pode ser considerado como uma
constante, desde que não depende de H, podemos interpretar a Equação (8.1) como
a seguinte função de H:

A probabilidade a posteriori de H é proporcional ao produto (a) da


probabilidade a priori de H, P[H], e (b) da verossimilhança de H em B, P[ B H] .

Na Seção 4.2, construímos várias distribuições de probabilidade a priori


e a posteriori. Neste momento introduziremos várias definições formais.

Definição 8.1

Diz-se que uma distribuição de probabilidades a priori (i.e., uma


distribuição a priori) é uma distribuição a priori conjugada, para uma dada
verossimilhança (i.e., a distribuição condicional das observações atuais) se a
distribuição a priori e a distribuição a posteriori resultante são, ambas, da mesma
família de distribuições de probabilidade. (Por exemplo, na demonstração do
Teorema 8.1, mostra-se que a distribuição a priori conjugada, β( a , b) , tem uma
distribuição a posteriori β( a + r , b + n − r ) . Assim, as distribuições a priori e a
posteriori, ambas, são da mesma família de distribuições de probabilidade (a beta),
com diferentes valores de parâmetro.)

Uma vantagem importante de usar distribuições a priori conjugadas é


que a distribuição a posteriori para um período (e.g., ano) pode ser usada como a
distribuição a priori para o próximo período. Uma vez que nenhuma forma
funcional nova seja requerida, a complexidade computacional do procedimento é
consideravelmente reduzida.
Capítulo 8 – Credibilidade e Inferência Bayesiana 168

Ilustramos o conceito de distribuições a priori conjugadas com os


exemplos apresentados nas três subseções seguintes.

8.2.1 O Exemplo de Bernoulli

Suponhamos que temos uma seqüência de n variáveis aleatórias de


Bernoulli, N 1 , N 2 ,K , N n , com probabilidade constante de sucesso, Θ . Suponhamos,
ainda, que estas n variáveis aleatórias são condicionalmente independentes, dado
Θ = θ . Discutimos as inferências que podem ser feitas sobre Θ . Destacamos,

primeiro, que para a > 0 e b > 0,

 Γ( a + b)
 Γ( a ) ⋅ Γ(b) ⋅ θ (1 − θ)
b− 1
a −1
0≤ θ≤ 1
g(θ) =  (8.2)

 0 para outros casos

é a função de densidade de uma variável aleatória que tem uma distribuição beta
com parâmetros a e b. Usamos β( a , b) para representar tal distribuição.

Usamos B( n, Θ) para representar uma distribuição binomial com


parâmetros n e Θ , onde n é o número de tentativas independentes e Θ é a
probabilidade de sucesso de uma tentativa isolada. Dada a B( n, Θ) , a probabilidade
de se obter r sucessos em n tentativas independentes de Bernoulli é dada por

 n r
  Θ ( 1 − Θ) ,
n −r
(8.3)
 r

para r = 0, 1, ..., n. Estamos agora prontos para apresentar o principal resultado


desta seção.
Capítulo 8 – Credibilidade e Inferência Bayesiana 169

Teorema 8.1

Se (a) n variáveis aleatórias de Bernoulli condicionalmente


independentes, representadas por N 1 , N 2 ,K , N n , têm probabilidades de sucesso
constantes 1, Θ , (b) a função de densidade condicional de Ni dado Θ = θ é

 θ para ni = 1
( )
f ni θ = 
1 − θ para ni = 0
,

e (c) a distribuição a priori Θ é β( a , b) , então a distribuição a posteriori de Θ é


n

β( a + r , b + n − r ) , onde r = ∑ ni é o número de sucessos observados em n tentativas


i =1

de Bernoulli.

Demonstração

Na Equação (8.2), vimos que a densidade a priori de Θ é

Γ( a + b) a − 1
θ ( 1 − θ) ,
b −1
(8.2)
Γ ( a) ⋅ Γ ( b )

para 0 ≤ θ ≤ 1 . Pela suposição de independência condicional, a probabilidade


conjunta (
f n1 , n 2 , K , nn θ ) pode ser reescrita como o produto das n

∏ f ( n θ) . O produto das verossimilhanças é proporcional a


n

verossimilhanças, i
i= 1

θ r ( 1 − θ)
n− r
. (8.4)

Considerando-se que a densidade a posteriori é proporcional ao produto


das expressões (8.2) e (8.4), a densidade a posteriori é proporcional a

1
Θ não muda ao longo do tempo, sendo constante para todas as tentativas de
O termo “constante” significa que
Bernoulli. Todavia, supõe-se que Θ seja uma variável aleatória com distribuição a priori β( a , b) .
Capítulo 8 – Credibilidade e Inferência Bayesiana 170

θ a + r −1 ( 1 − θ)
b + n − r −1
, (8.5)

em acordo com o enunciado do Teorema 8.12.

8.2.2 O Exemplo de Poisson

Suponhamos que temos uma seqüência de m variáveis aleatórias,


denotada por N 1 , N 2 , K , N m tendo uma distribuição de Poisson com média

constante Θ . Suponhamos, ainda, que as variáveis aleatórias N 1 , N 2 , K , N m são


condicionalmente independentes, dado Θ = θ . A função densidade condicional de
Poisson, dado Θ = θ , é

 e −θ θ n
 n = 0, 1, K
f (n θ) =  n ! . (8.6)

 0 para outros casos

Notamos, também, que, para α > 0 e β > 0 ,

 e − βθ βα θ α − 1
 Γ(α) θ≥ 0
g(θα, β) =  (8.7)

 0 para outros casos

é a função densidade de uma variável aleatória que tem uma distribuição gama com
parâmetros α e β . Usamos G(α, β) para representar tal distribuição.

Teorema 8.2

Se (a) m variáveis aleatórias de Poisson condicionalmente independentes,


representadas por N 1 , N 2 , K , N m , tenham médias constantes Θ , (b) a função

densidade condicional de Ni dada Θ = θ é f ( n i Θ ) e (c) a distribuição a priori de Θ


Capítulo 8 – Credibilidade e Inferência Bayesiana 171

é G(α, β) , então, a distribuição a posteriori de Θ é G(α + mn , β + m) , onde ni é a


n

realização da variável aleatória Ni e mn = ∑ ni .


i =1

Demonstração

Com a Equação (8.7), observamos que a densidade a priori de Θ é

e − βθ βα θα −1
, (8.8)
Γ(α)

para θ > 0 , sendo zero em caso contrário. Pela suposição de independência


condicional, a verossimilhança conjunta f (n1 , n 2 , K , n m θ) pode ser reescrita como o

∏ f (n θ) . O produto das
m

produto de m verossimilhanças i verossimilhanças é, a


i =1

partir da Equação (8.6), proporcional a


(e )( e )L( e )=e
ni
−θ
θ n1 −θ
θ n2 −θ
θ nm − mθ
⋅θ i =1
(8.9)
− mθ
=e ⋅θ mn
.

A densidade a posteriori é proporcional ao produto de (8.8) e (8.9), assim é


proporcional a e − ( β + m) θ θα + mn$ −1 , conforme pretendido pelo Teorema 8.23.

Para tarifação de seguros, a distribuição a posteriori para um ano é a


distribuição a priori para os anos seguintes. O uso de distribuições a priori
conjugadas permite ao atuário continuar usando distribuições da mesma natureza,
reduzindo assim substancialmente o esforço computacional requerido.

2
Veja o Exercício 8-2(a) para maiores detalhes.
3
Veja o Exercício 8-2(b) para maiores detalhes.
Capítulo 8 – Credibilidade e Inferência Bayesiana 172

8.2.3 O Exemplo Normal

Suponhamos que temos uma seqüência de n variáveis aleatórias,


representadas por X 1 , X 2 ,K , X n , a paritr de uma distribuição normal com média Θ
e variância σ12 . Suponhamos, ainda, que as variáveis aleatórias X 1 , X 2 ,K , X n são
condicionalmente independentes, dado Θ . Então, para Θ = θ , a função densidade
de probabilidade condicional para cada Xi é

f ( x θ) =
1
σ1 ⋅ 2π
[
exp − ( x − θ) / 2σ12 ,
2
] (8.10)

e a função densidade de probabilidade de Θ é

g(θ) =
1
σ2 ⋅ 2π
[ 2
]
exp − (θ − µ) / 2σ22 . (8.11)

Note que ambas, f e g, são funções densidade de probabilidade normais.


Estamos agora prontos para apresentar o principal resultado desta seção.

Teorema 8.3

Se (a) n variáveis aleatórias normais condicionalmente independentes,


denotadas por X 1 , X 2 ,K , X n têm média constante Θ e variância constante e

conhecida σ12 , (b) a função densidade condicional de Xi dado Θ = θ é f ( x i θ) , e (c)


a função de densidade a priori de Θ é a função densidade normal, g(θ) , com média
constante e conhecida µ e variância constante e conhecida σ 22 , então a função
densidade de probabilidade a posteriori de Θ é normal com média

~ µσ12 + σ22 nx
µ= (8.12)
σ12 + nσ22

e variância
Capítulo 8 – Credibilidade e Inferência Bayesiana 173

~2 = σ12 σ22
σ , (8.13)
σ12 + nσ22

1 n
onde x = ∑ x é a média das realizações das n variáveis aleatórias X 1 , X 2 ,K , X n .
n i =1 i

Demonstração

A função densidade a posteriori de Θ é proporcional ao produto da


função densidade a priori de Θ , pela verossimilhança conjunta de Θ em

X 1 = x 1 , X 2 = x 2 , K , X n = x n , e expressa por

[ ] (
exp − (θ − µ) / 2σ22 ⋅ f x 1 , x 2 , K , x n θ .
2
) (8.14)

Devido à independência condicional dos Xi’s, a Expressão (8.14) pode


ser reescrita como

[ ]
 n
exp − (θ − µ) / 2σ22 ⋅  ∏ f xi Θ 
2

 i =1
(

)
(8.15)
[ 
] [ 
]
n

= exp − (θ − µ) / 2σ22 ⋅ ∏ exp − ( x i − θ) / 2σ12  .


2 2

 i =1 

Eliminado-se os termos que não envolvem θ , o lado direito da Equação


(8.15) é proporcional a

[ ]
exp (θnx / σ12 ) − ( nθ 2 / 2σ12 ) − ( θ 2 / 2σ22 ) + ( θµ / σ22 ) . (8.16)

Completando o quadrado dentro dos parênteses e eliminando os termos


que não envolvem θ , achamos que a Expressão (8.16) é proporcional a
Capítulo 8 – Credibilidade e Inferência Bayesiana 174

 σ 2 + nσ 2  µσ12 + σ22 nx  
2

exp− θ −  .
1 2

 2σ12 σ22  σ12 + nσ22  

Dessa forma, mostramos que a função densidade a posteriori de Θ , dado


~ e variância σ
X 1 = x1 , X 2 = x 2 ,K , X n = x n , é normal com média µ ~ 2 , como dado pelas

Equações (8.12) e (8.13), respectivamente.

8.3 CREDIBILIDADE E DISTRIBUIÇÕES CONJUGADAS

Mayerson [1964] mostrou que um dos três pares de distribuições


conjugadas a priori e suas verossimilhanças a saber, beta-binomial, gama-Poisson e
normal-normal (com variância conhecida), as estimativas de credibilidade de
Bühlmann são iguais às correspondentes estimativas Bayesianas do prêmio puro.
Os resultados para os pares beta-binomial e gama-Poisson tinham sido
demonstrados anteriormente por Bailey [1950]. O resultado também vale para aos
pares gama-exponencial e geométrica-beta. Ilustramos este resultado para os
exemplos Bernoulli, Poisson, e Normal considerados na Seção 8.2.

O seguinte teorema mostra que a média da distribuição a posteriori de


Θ é igual à média da distribuição preditiva de Xn+l, contanto que

[ ]
E X i Θ = µ( Θ) (8.17)

para i = 1, 2, ...

Teorema 8.4

Considere-se Xl, X2, ... variáveis aleatórias com média Θ tal que (a) a
Equação (8.17) seja válida para i = 1, 2, ... , e (b) os Xi‘s sejam condicionalmente
independentes dado Θ . Então, para n = 1, 2, ...
Capítulo 8 – Credibilidade e Inferência Bayesiana 175

[
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n ] (8.18)
[
= E Θ µ( Θ) X 1 = x 1 , X 2 = x 2 , K , X n = x n ].
Demonstração

[
E X n + 1 X 1 = x1 , X 2 = x 2 , K , X n = x n ]
[[
= E Θ E X n +1 X 1 = x 1 , X 2 = x 2 , K , X n = x n , Θ ]]
[ [
= E Θ E X n +1 Θ ] X 1 = x 1 , X 2 = x 2 ,K , X n = x n ]
[
= E Θ µ( Θ) X 1 = x 1 , X 2 = x 2 , K , X n = x n , ]
onde a segunda igualdade é um resultado da suposição de independência
condicional e a terceira igualdade resulta da aplicação da Equação (8.17).

Corolário 8.1

Sob as condições do Teorema 8.4, se µ( Θ) = Θ , então,

[
E X n +1 X 1 = x1 , X 2 = x 2 ,K , X n = x n ]
= E Θ [Θ X 1 = x 1 , X 2 = x 2 , K , X n = x n ].

Demonstração

Simplesmentente substitua µ( Θ) por Θ na prova do Teorema 8.4.

8.3.1 O Exemplo de Bernoulli Revisitado

Seja I a variável aleatória indicadora que representa o resultado de uma


única tentativa de Bernoulli. Suponhamos que I tem probabilidade de sucesso Θ ,
onde Θ tem uma distribuição beta representada por β( a , b) . Uma vez que a média 4

4
Veja o Exercício 8-8(a)(i).
Capítulo 8 – Credibilidade e Inferência Bayesiana 176

a
e a variância de uma variável aleatória com distribuição β( a , b) são e
a+b
ab
, respectivamente, o valor de k é
( a + b + 1)( a + b) 2

k=
[ ] = E [Θ(1 − Θ)]
E Θ VarI ( I Θ ) Θ

Var ( E [ I Θ ])
Θ I
Var (Θ) Θ

EΘ [ Θ ] − EΘ [ Θ 2 ]
=
VarΘ [Θ]

(
E Θ [ Θ] − VarΘ ( Θ) + E Θ [Θ 2 ] )
=
VarΘ [ Θ]

a  ab  a  
2

− +   
a + b  ( a + b + 1)( a + b ) 2  a + b  
=
ab
( a + b + 1)( a + b) 2

 b + ( a + b + 1)( a) 
1−  
 ( a + b + 1)( a + b) 
=
b
( a + b + 1)( a + b)

( a + b + 1)( a + b) − b − ( a + b + 1)( a)
( a + b + 1)( a + b)
=
b
( a + b + 1)( a + b)

( a + b + 1)( b) − b
= = ( a + b + 1) − 1
b (8.19)
= a + b.
Capítulo 8 – Credibilidade e Inferência Bayesiana 177

Uma vez que k = a + b, então

n n
Z= = . (8.20)
n+ k n + a +b

Para o exemplo de Bernoulli da Seção 8.2.1, a distribuição a posteriori


a+r
de Θ é β( a + r , b + n − r ) , e a média desta distribuição a posteriori de Θ é .
a + b+ n
Podemos reescrever este média como

a r
+
a + b+ n a +b + n
a  a + b r  n
=  +   (8.21)
a + b + n  a + b a + b + n  n
 a + b  a   n  r
=   +  .
 a + b + n  a + b  a + b + n  n

n a +b
Posto que Z = e (1 − Z ) = , podemos reescrever o lado
a + b+ n a + b+ n
direito da Equação (8.21) como

( 1 − Z ) 
a   r
 + Z  . (8.22a)
 a + b  n

Descritivamente, (8.22a) pode ser interpretado como

(1 - Z) • (média a priori) + Z • (média dos dados observados), (8.22b)

a
uma vez que (a) a média da distribuição a priori beta é e (b) a proporção de
a+b
r
sucessos observados em n tentativas, que é a média dos dados observados, é .
n

Assim, mostramos que se (a) é possível supor que os dados têm uma
distribuição binomial (o resultado de n tentativas de Bernoulli independentes), e (b)
uma distribuição beta é empregada como a distribuição a priori, então a média da
Capítulo 8 – Credibilidade e Inferência Bayesiana 178

distribuição a posteriori é igual à correspondente estimativa de credibilidade de


Bühlmann. Ainda mais, a média da distribuição a posteriori é igual à média da
distribuição preditiva para a próxima observação (i.e., uma tentativa de Bernoulli).
A média da distribuição preditiva da próxima observação é a estimativa Bayesiana
do componente de freqüência do prêmio puro e supondo-se uma função de perda
tipo erro quadrado.

8.3.2 O Exemplo de Poisson Revisitado

Seja N uma variável aleatória que tem uma distribuição de Poisson com
média Θ . Por sua vez, deixamos a média da distribuição de Poisson, Θ , ter uma
distribuição gama, G(α, β) , cuja função de densidade é definida pela Equação (8.7).
α α
Como a média e a variância de G(α, β) são e 2 , respectivamente, o valor de k
β β

k=
[ ] = E [Θ] = α / β
E Θ VarN ( N Θ) Θ
= β. (8.23)
Var ( E [ N Θ]) Var (Θ ) α / β
2
Θ N Θ

Sendo k = β , então, para m tentativas independentes (ou períodos de


observação)

m m
Z= = . (8.24)
m+ k m + β

Para o exemplo da distribuição de Poisson da Seção 8.2.2, a distribuição


a posteriori de Θ é G(α + mn , β + m) e a média da distribuição a posteriori de Θ é
α + mn 5
. Podemos reescrever esta média como
m+β

5
Veja o Exercício 8-8(b)(ii).
Capítulo 8 – Credibilidade e Inferência Bayesiana 179

α mn β  α m
+ =  + ( n ).
m + β m + β m + β  β m + β

m β
Considerando-se que Z = e (1 − Z ) = , podemos reescrever a
m+ β m+ β

média a posteriori como

 α
(1 − Z )  + Z ( n ). (8.25a)
 β

Descritivamente, (8.25a) pode ser declarado como

(1 - Z) • (média a priori) + Z • (média dos dados observados), (8.25b)

posto que a média da distribuição a priori da gama é α / β .

Demonstra-se que a correspondente distribuição preditiva é uma


distribuição binominal negativa.

Em resumo, mostramos que se (a) é possível supor que os dados têm uma
distribuição de Poisson, com parâmetro (média) Θ , e (b) uma distribuição gama é
empregada como a distribuição a priori de Θ , então, a média da distribuição a
posteriori é igual à correspondente estimativa de credibilidde de Bühlmann.
Novamente, a média da distribuição a posterior é igual à média da distribuição
preditiva (binomial negativa) da próxima observação (i.e., tentativa de Poisson).
Embora esta propriedade prevaleça nos dois últimos exemplos, eles são apenas
casos especiais. Há muitas circunstâncias nas quais a média da distribuição a
posteriori não é igual à média da distribuição de preditiva. A média da distribuição
preditiva da próxima observação é a estimativa Bayesiana do componente de
freqüência do prêmio puro, supondo-se uma função de perda do tipo erro
quadrado.
Capítulo 8 – Credibilidade e Inferência Bayesiana 180

8.3.3 O Exemplo Normal Revisitado

Como na Seção 8.2.3, seja X uma variável aleatória tendo uma


distribuição Normal com média Θ e variância σ12 . Por sua vez, Θ tem uma

distribuição Normal N ( µ, σ22 ) , cuja função densidade é definida pela Equação


(8.11). Sob estas suposições, o valor de k é

k=
[ ] = E [σ ] = σ
E Θ VarX ( X Θ) Θ 1
2 2
1
. (8.26)
Var ( E [ X Θ]) Var (Θ ) σ
2
Θ X Θ 2

Então, para n tentativas condicionalmente independentes (ou períodos de


observação), temos

n n
Z= = (8.27)
n + k n + (σ12 / σ22 )
.

Podemos reescrever a média da distribuição a posteriori de Θ como

µσ12 + σ22 nx
E [Θ X 1 = x1 , X 2 = x 2 , K , X n = x n ] =
σ12 + nσ22
σ12 nσ22
= 2 ⋅ µ+ 2 ⋅x
σ1 + nσ22 σ1 + nσ22
= (1 − Z ) H + ZR ,
(8.28)

onde H = µ, R = x e

nσ22 n
Z= 2 = ,
σ1 + nσ2 n + (σ12 / σ22 )
2
Capítulo 8 – Credibilidade e Inferência Bayesiana 181

como já estabelecido na Equação (8.27), acima. Descritivamente, a Equação (8.28)


pode ser declarada como

(1 - Z) • (média a priori) + Z • (média dos dados observados),

uma vez que a média da distribuição normal a priori de Θ é µ .

Em resumo, mostramos que se (a) é factível supor que os dados têm uma
distribuição normal com média Θ e variância σ12 , e (b) uma distribuição normal
com média µ e variância σ 22 é empregada como a distribuição a priori de Θ , então
a média da distribuição a posteriori é igual à à correspondente estimativa de
credibilidade de Bühlmann. Novamente, desde que as condições do Teorema 8.4
sejam satisfeitas, a média da distribuição a posteriori é também igual à média da
distribuição preditiva da próxima observação (i.e., tentativa normal). Também, a
média da distribuição a posteriori de Θ é a estimativa pontual Bayesiana de Θ ,
supondo-se uma função de perda tipo erro quadrado.

Note que a estimativa, ( 1 − Z ) µ + Zx , é uma função linear das realizações


x1 , x 2 ,K , x n das correspondentes variáveis aleatórias X 1 , X 2 ,K , X n , porque x é uma

função linear de x1 , x 2 ,K , x n . Finalmente, substituindo-se as realizações dos Xi‘s


pelas variáveis aleatórias correspondentes, obtemos ( 1 − Z ) µ + ZX como o estimador
1 n
de Θ , onde X = ∑ X i .
n i= 1

8.4 CREDIBILIDADE E FAMÍLIAS EXPONENCIAIS

8.4.1 Famílias exponenciais

Começamos esta seção definindo as famílias exponenciais de


distribuições, e apresentando alguns exemplos nelas baseados. Declaramos então,
sem demonstração, um importante resultado geral.
Capítulo 8 – Credibilidade e Inferência Bayesiana 182

Definição 8.4

Considere uma família { f ( x Θ ); Θ ∈Ω} de funções densidade de

probabilidade, onde Ω é o conjunto dos possíveis valores de Θ , Ω = { Θ:c < Θ < d} ,


sendo c e d constantes conhecidas.

(a) Uma função densidade de probabilidade da forma

exp[ p( Θ) ⋅ A( x) + B( x) + q ( Θ) ] a< x<b


f ( x Θ) = 
 0 para outros casos

referida como um membro da família exponencial de funções


densidade de probabilidade do tipo contínua.

(b) Uma função de densidade de probabilidade da forma

exp[ p( Θ) ⋅ A( x ) + B( x) + q( Θ) ] x = x 1 , x 2 ,K
f ( x Θ) = 
 0 para outros casos

é referenciada como um membro da família exponencial de funções


densidade de probabilidade do tipo discreta.

Definição 8.5

Diz-se que uma família exponencial para a qual A(x) = x é uma família
exponencial linear.

Para ilustrar, seja X uma variável aleatória com função densidade


binomial da forma dada pela Equação (8.3). Para x = 0, 1, ..., n, podemos
reescrever o lado direito da Equação (8.3) como sendo

 n  Θ  x
   (1 − Θ ) ,
n
(8.29)
 x  1 − Θ
Capítulo 8 – Credibilidade e Inferência Bayesiana 183

 Θ 
x

com r substituído por x. Fazemos y =   e calculamos o logaritmo natural de


1 − Θ

ambos os lados da equação, obtendo

 Θ 
ln y = x ⋅ ln ,
 1− Θ

ou

  Θ 
y = exp( ln y) = exp x ⋅ ln  .
  1 − Θ  

Assim, podemos reescrever a expressão (8.29) como

 n   Θ 
  ⋅ expx ⋅ ln   ⋅ ( 1 − Θ) .
n

 x   
1− Θ 

 n
Visto que   e (1 − Θ) n podem ser escritos como exp[ B( x ) ] e exp[ q( Θ) ] ,
 x

 Θ 
respectivamente, e podemos fazer A(x) = x e p( Θ) = ln  , a função densidade
1 − Θ

binomial é certamente um exemplo de uma família exponencial linear do tipo


discreto.

As distribuições de Poisson, exponencial, e normal (com variância


conhecida) são também exemplos de famílias exponenciais lineares.

8.4.2 Condições para a Igualdade dos Estimadores


de Bühlmann e Bayesiano

Ericson [1970] e Jewell [1974] mostraram que a classe de famílias de


verossimilhanças a priori para as quais o estimador de credibilidde de Bühlmann
do prêmio puro é igual ao correspondente estimador Bayesiano, pode ser estendida
Capítulo 8 – Credibilidade e Inferência Bayesiana 184

além das quatro famílias de verossimilhança a priori discutidas na Seção 8.3.


Especificamente, Ericson [1970] demonstra a proposição contida no seguinte
teorema.

Teorema 8.5

Se (a) a distribuição conjugada a priori é usada como a distribuição a


priori, e (b) a densidade de verossimilhança é um membro de um família
exponencial linear, então, o estimador de credibilidade de Bühlmann do prêmio
puro é igual ao correspondente estimador Bayesiano, supondo-se uma função de
perda tipo erro quadrado.

8.4.3 Um Procedimento Alternativo para Obter-se Estimativas


de Bühlmann e Bayesianas

Gerber [1995] propôs um procedimento alternativo (mas proximamente


relacionado) para se obter a estimativa de Bühlmann/Bayesiana do prêmio puro
para os cinco pares de distribuições conjugadas a priori e suas verossimilhanças,
listados no primeiro parágrafo da Seção 8.3. Gerber afirma que a vantagem do seu
procedimento é evitar uma definição preliminar dos parâmetros como aqueles
descritos na Seção 8.4.1 para a função densidade binomial.

8.4 RESUMO DOS RESULTADOS PRINCIPAIS


DO PARADIGMA BAYESIANO

8.5.1 Parâmetros

A distribuição a priori e a distribuição a posteriori se vinculam a um ou


mais parâmetros. Para sermos específicos, consideremos o caso de um vetor de
parâmetros, Θ , o qual pode consistir em um ou mais componentes.
Capítulo 8 – Credibilidade e Inferência Bayesiana 185

A distribuição a posteriori de Θ é obtida aplicando-se o Teorema de


Bayes à distribuição a priori de Θ e à verossimilhança de Θ nas observações. A
distribuição a posteriori de Θ é uma versão atualizada da distribuição a priori,
conhecidos os resultados de um ou mais períodos de observação. No exemplo do
Capítulo 4, atualizamos a distribuição a priori conjunta dos parâmetros do par
dado-roleta, A e B, baseado na observação Xl = xl, para obter a distribuição a

[ ]
posteriori especificada por P A = a i , B = b j X 1 = x1 , para i = 1, 2 e j = 1, 2.

8.5.2 Variáveis Aleatórias

A distribuição condicional da variável aleatória X2, dado o valor da


variável aleatória Xl, é chamada distribuição preditiva de X2 dado o valor de Xl. Isto
é semelhante à distribuição a posteriori de um parâmetro.

A distribuição preditiva é obtida somando-se ou integrando-se o produto


da verossimilhança pela distribuição a posteriori. Por exemplo, no Capítulo 4, a
distribuição preditiva (veja a Tabela 4.6) é obtida somando-se os produtos das
probabilidades a posteriori (conjuntas) de A e B, dado que Xl = k (veja a Tabela
4.5) pelas probabilidades condicionais (i.e., a verossimilhança) de Xl = k, dado A e
B (veja a Tabela 4.4).

8.5.3 Estimativas do Prêmio Puro (Valores Esperados)

A estimativa do prêmio puro inicial, antes que qualquer observação seja


feita, é E[X1]. A estimativa do prêmio puro revisado, depois da primeira

observação, é a expectância condicional E[ X 2 X 1 ] . Isto é, simplesmente, a média


da distribuição preditiva da variável aleatória X2, conhecido o resultado da variável
aleatória Xl. Mais genericamente, a estimativa do prêmio puro revisado é

[ ]
E X n +1 X 1 , X 2 , K , X n para o (n + 1)-ésimo período de observação.
Capítulo 8 – Credibilidade e Inferência Bayesiana 186

8.5.4 O Exemplo 6.1 Revisitado

No exemplo seguinte recalculamos a estimativa do Exemplo 6.1 usando o


paradigma Bayesiano em vez do modelo de Bühlmann. Nosso objetivo é mostrar
que se a distribuição a priori do parâmetro de interesse não é uma distribuição a
priori conjugada, então a estimativa Bayesiana pode ser diferente da estimativa de
Bühlmann.

Exemplo 8.1

O número de sinistros, Ni, durante o i-ésimo ano da apólice (i = 1, 2) para


um segurado individual, tem uma distribuição de Poisson com parâmetro Θ . A
distribuição a priori de Θ é a distribuição uniforme no intervalo (0, 1). Um
segurado individual tem exatamente um sinistro durante o primeiro ano da apólice.
Use o paradigma Bayesiano para estimar o número esperado de sinistros para esse
segurado durante o segundo ano da apólice.

Solução

Buscamos o valor exato de E[ N 2 N 1 = 1] , sob as suposições listadas acima.

Pelo Corolário 8.1, é suficiente calcular E[ Θ N 1 = 1] , a média a posteriori Θ , dado


que N1 = 1. A função de densidade a priori de Θ é

1 0 <θ< 1
f ( θ) =  .
0 para outros casos

A verossimilhança de Θ em Nl = 1 é e −θ θ 1 . Então, para 0 < θ < 1 , a

função de densidade a posteriori de Θ dado que Nl = 1, é proporcional ao produto


da densidade a priori pela verossimilhança, de forma que
Capítulo 8 – Credibilidade e Inferência Bayesiana 187

f (θ) ⋅ ( e −θ θ 1 ) = (1)( e −θ θ 1 ) = θ ⋅ e −θ .

Para 0 < θ < 1 , a densidade a posteriori de Θ é

θ ⋅ e−θ θ ⋅ e −θ θ ⋅ e −θ
f ( Θ N 1 = 1) = = = ,
P[ N 1 = 1] θ ⋅ e − θ dθ 1 − 2 e
−1

1

onde o denominador é avaliado usando-se a integração por partes. Finalmente, a


média a posteriori de Θ é

θ ⋅ e −θ
1 1

∫ θ ⋅ f (θ N 1 = 1) dθ = ∫ θ ⋅
0 0 1 − 2e −1

θ2 ⋅ e − θ
1

=∫ dθ
0 1 − 2e
−1

2 − 5e −1
=
1 − 2 e −1
= 0,608.

Assim, mostramos que a estimativa Bayesiana (dado Nl = 1) do número


esperado de sinistros durante o segundo ano da apólice é 0,608, que difere da
correspondente estimativa de Bühlmann de 0,571 calculada no Exemplo 6.1.
Capítulo 8 – Credibilidade e Inferência Bayesiana 188

8.6 EXERCÍCIOS

8.1 Introdução

8.2 Distribuições a priori Conjugadas

8-l Conhecida a ocorrência de um evento, B, a probabilidade a posteriori de uma


hipótese, H, é proporcional ao produto de dois fatores. Quais são esses
fatores?

Resposta: A distribuição a priori de H, P[H], e a verossimilhança de H em B,


P[B | H].

8-2 Por definição, se f é uma função de densidade de probabilidade (contínua),


então ∫ f ( x) dx = 1 .
−∞

(a) Em particular, se f é a função de densidade de uma distribuição beta,


β( a , b) com a > 0 e b > 0, então, a Equação (8.2) conduz a

Γ ( a + b)
∞ 1

∫ f ( x) dx = ∫ Γ ( a) ⋅ Γ(b) x (1 − x) b −1 dx = 1.
a −1

−∞ 0

Γ( a + b)
1

∫x (1 − x) b −1 dx =
a− 1
Isto implica que . Use a última equação para
0
Γ ( a ) ⋅ Γ ( b)

mostrar para que

Γ( a + r ) ⋅ Γ( b + n − r )
1

∫θ (1 − θ) b+ n − r− 1 dθ =
a+ r− 1
, completando, assim, a prova
0
Γ ( a + b + n)

de Teorema 8.1.
Capítulo 8 – Credibilidade e Inferência Bayesiana 189

(b) Em seguida, seja g a função densidade de uma distribuição gama, G(α, β) .


Então, usando a Equação (8.7), com x substituído por θ , obtemos

∞ ∞
e − βθ βα θ α − 1
∫ g(θ) dθ = ∫0 Γ (α) dθ = 1.
−∞

∫e θ α −1 dθ = β −α ⋅ Γ(α). . Use a última equação para


− βθ
Isto implica que
0

mostrar para que

θ α + mn −1 dθ = (β + m)
−( α + mn )
∫e (− β + m) θ
⋅ Γ(α + mn ) , completando, desta forma, a
0

prova do Teorema 8.2 .

8-3 O número de sinistros, R, para um risco individual em um ano tem uma


distribuição binomial com parâmetro n = 5 e probabilidade de sinistro Q. Por
seu turno, Q, tem uma função de densidade a priori dada por
f ( q ) = 60q 3 (1 − q) , 0 ≤ q ≤ 1 . Dado que nenhum sinistro ocorreu no primeiro
2

ano, a densidade a posteriori de Q é proporcional a q n ( 1− a ) m . Quais são os


valores de n e m?

Respostas: 3; 7.

8-4 Você sabe que (i) um risco individual tem exatamente um sinistro a cada ano,
(ii) a severidade de cada sinistro tem função densidade exponencial
f ( x T = t ) = te − tx , x > 0 , (iii) o parâmetro, T, tem função densidade de

probabilidade h( t ) = te − t , t > 0 , e (iv) uma indenização de $5 é observada


durante o primeiro ano. Determine a função de densidade a posteriori de T.

Resposta: 108t 2 e −6t .


Capítulo 8 – Credibilidade e Inferência Bayesiana 190

8-5 Suponha que o número de reivindicações de seguro, R, formuladas por um


indivíduo em um único ano da apólice tem uma distribuição binomial com
parâmetros n = 3 e Θ . Suponha, ainda, que o parâmetro Θ tem função
densidade de probabilidade g(θ) = 6(θ − θ 2 ) , para 0 < θ < 1 . Dado que uma única
reivindicação foi formulada pelo indivíduo durante aquele ano da apólice,
encontre a função de densidade a posteriori de Θ .

Resposta: 60θ 2 ( 1 − θ) 3 .

8-6 O número de sinistros, Ni, durante o i-ésimo ano da apólice para um risco
individual tem uma distribuição de Poisson com parâmetro Θ . Por seu turno,
Θ tem uma distribuição gama a priori com função densidade g(θ) = θ ⋅ e −θ ,

para 0 < θ < ∞ . Encontre a densidade a posteriori de Θ , dado que Nl = 1.

Resposta: 4θ 2 e −2θ .

8-7 O número de sinistros, N, durante o primeiro ano da apólice para um indivíduo


segurado tem uma distribuição de Poisson com parâmetro Θ . A distribuição a
priori de Θ é a distribuição uniforme no intervalo (1, 3). Determine a
probabilidade incondicional a priori P[N = 0].

Resposta: 0,159.

8.3 Credibilidade e Distribuições Conjugadas

8-8 (a) Use a informação do Exercício 8-2(a) e o Teorema 8.1 para mostrar o
seguinte:

a
(i) A média da distribuição a priori, β( a , b) é .
a+b
Capítulo 8 – Credibilidade e Inferência Bayesiana 191

a+r
(ii) A média da distribuição a posteriori, β( a + r , b + n − r ) é .
a + b+ n

(b) Use a informação do Exercício 8-2(b) e o Teorema 8.2 para mostrar o


seguinte:

α
(i) A média da distribuição a priori, G(α, β) é .
β

α + mn
(ii) A média da distribuição a posteriori, G(α + mn , β + m) é .
β+ m

8-9 Você sabe que (i) o número de sinistros segue uma distribuição de Poisson
com média Θ , (ii) antes do primeiro ano de cobertura, Θ é admitida como
tendo a função densidade gama

1000150 149 − 1000θ


f ( θ) = θ e , θ>0,
Γ (150)

(iii) durante o primeiro ano de cobertura, são observados 300 sinistros em


1500 unidades de exposição, e (iv) durante o segundo ano de cobertura,
são observados 525 sinistros em 2500 unidades de exposição. Qual é a
média da distribuição a posteriori de Θ , dados os resultados dos
primeiros dois anos de cobertura?

Resposta: 0,195.

8-10 Você é informado de que (i) o número de sinistros para uma coleção de 20
segurados segue uma distribuição de Poisson com média Θ , (ii) Θ têm uma
distribuição gama com média 0,10 e variância 0,0025, e (iii) durante o
primeiro ano de observação, ocorrem 6 sinistros a partir dos 20 segurados.
Encontre a variância da distribuição a posteriori de Θ .
Capítulo 8 – Credibilidade e Inferência Bayesiana 192

Resposta: 0,0028.

8-11 Você é informado de que (i) o número de sinistros, N, para um único segurado
segue uma distribuição de Poisson com média Θ , (ii) Θ têm uma distribuição
gama com média 0,10 e variância 0,0003, (iii) 150 sinistros aconteceram
durante o último período de três ano, e (iv) 200 apólices estiveram em vigor
durante cada um dos últimos três anos. Encontre a média da distribuição a
posteriori de Θ .

Resposta: 0,196.

8-12 Para cada uma das seguintes distribuições, dê a correspondente distribuição a


priori conjugada:

(a) Binominal

(b) Normal (com variância conhecida)

(c) Poisson

Repostas: (a) Beta (b) Normal (c) Gama.

8-13 Quais das seguintes declarações são verdadeiras?

I. Distribuições a posteriori são de parâmetros de modelo, considerando-se


que as distribuições preditivas enfocam um fenômeno real.

II. Um executivo ou gerente sênior normalmente consideraria uma


distribuição preditiva mais útil do que uma distribuição a posteriori.

III. A principal vantagem o uso de distribuições a priori conjugadas é a


simplificação do processo computacional.
Capítulo 8 – Credibilidade e Inferência Bayesiana 193

Resposta: Todas as declarações são verdadeiras.

8-14 A distribuição a priori de uma variável aleatória, H, é dada por P[H = 0,25] =
0,8 e P[H = 0,50] = 0,2. O resultado de um único experimento, D1, está
distribuído de acordo com

[ ]
P D1 = d 1 H = h = h d 1 (1 − h)
( 1− d 1 )
,

para d1 = 0, 1.

(a) Se D1 = 1, qual é a distribuição a posteriori de H?

(b) Se D1 = 1, qual é a distribuição preditiva para o resultado do próximo


experimento, D2?

Respostas: (a) P[ H = 0,25 D1 = 1] = ; [ ]


2 1
P H = 0,5 D1 = 1 =
3 3

(b) P[ D2 = 0 D1 = 1] = ; [ ]
2 1
P D2 = 1 D1 = 1 = .
3 3

8-15 Seja Ni a variável aleatória que representa o número de sinistros durante o i-


ésimo ano da apólice. Ni tem uma distribuição de Poisson com parâmetro Θ ,
que, por sua vez, tem função de densidade de probabilidade g(θ) = e −θ , θ > 0 .

(a) Qual é a probabilidade incondicional, P[Ni = 2] ? (Sugestão: Note que a


quantidade a ser integrada é uma função de densidade gama. )

(b) Usando o resultado do item (a), determine a distribuição preditiva P[N2 = d


| Nl = 2], para d = 0, 1, ... .

(c) Qual das quantidades Nl, N2, e Θ , definidas nos itens (a) e (b), pode ser
observada?
Capítulo 8 – Credibilidade e Inferência Bayesiana 194

1
Respostas: (a) (b) 4( d + 1)( d + 2) ⋅ 3− ( d + 3) (c) N1 e N2
8

8-16 Quais das declarações seguintes são verdadeiras?

I. A principal vantagem de distribuições a priori conjugadas é que a


distribuição a priori para um ano pode se tornar a distribuição a posteriori
para o próximo ano.

II. Se são executadas n tentativas independentes de Bernoulli com


probabilidade constante de sucesso Θ , sendo a distribuição a priori Θ uma
distribuição beta, então a distribuição a posteriori de Θ também é uma
distribuição beta.

Resposta: Somente a declaração II é verdadeira.

8-17 Sejam X1, X2, ..., Xn variáveis aleatórias que representam o lucro líquido (ou
perda) em cada apólice de acidente de trabalho em vigor durante um particular
ano civil. As seguintes premissas são feitas

(i) X1, X2, ..., Xn são variáveis normais identicamente distribuídas, com média
Θ e variância 1.

(ii) X1, X2, ..., Xn são condicionalmente independentes, dado Θ .

(iii)A função densidade a priori de Θ é uma função densidade normal, com


média 6 e variância 5.

Dados os valores n = 4, X1 = -3, X2 = 0, X3 = 7, X4 = 7, determine (a) a


média e (b) a variância da distribuição normal a posteriori de Θ .

26 5
Respostas: (a) (b)
11 21
Capítulo 8 – Credibilidade e Inferência Bayesiana 195

8.4 Credibilidade e Famílias Exponenciais

8-18 Considere a seguinte informação:

(i) A distribuição de sinistros é binomial com parâmetros n e Θ , 0 ≤ Θ ≤ 1 .

(ii) A função densidade a priori de Θ é a função densidade beta

Γ( 4 + 5) ⋅ θ 3 ⋅ ( 1 − θ) 4
f ( θ) = , 0≤ θ≤ 1,
Γ( 4) ⋅ Γ( 5)

4 20
com média e variância .
4+5 ( 3 + 4 + 2) 2 ( 3 + 4 + 3)

(iii)dois sinistros são observados em três tentativas.

Determine a média da distribuição a posteriori de Θ .

1
Resposta: .
2

8-19 Para i = 1, 2, Xi é uma variável aleatória que representa o resultado de uma


única observação. Xl e X2 têm função densidade de probabilidade
(condicional) f(x | Θ ) que é um membro de uma família exponencial linear. A
função de densidade a priori de Θ , g(θ), é uma função densidade a priori
conjugada para f(x | Θ ). Sabe-se (i) que E[X1] = E[X2] = 1, (ii) o resultado de
uma única tentativa na observação Xl = 4, (iii) que E[X2 | X1, = 4] = 2, e (iv)
que o valor esperado da variância de processo é EΘ [VarΘ ( X Θ)] = 3 . Determine

a variância das médias hipotéticas, VarΘ ( E[ X Θ]) .

Resposta: 1,50.
Referências Bibliográficas 196

REFERÊNCIAS BIBLIOGRÁFICAS

1. Bailey, A.L., “Credibility Procedures – La Place’s Generalization of


Bayle’s Rule and Combination of Collateral Knowledge With Observed
Data, ” PCAS, 37 (1950), 7-23, 94-115.

2. _________, “Sampling Theory in Casualty Insurance,” PCAS, 29 (1942),


50ff: PCAS, 30 (1943), 13ff.

3. ____, “A Generalized Theory of Credibility,” PCAS, 32 (1945), 13-


20.

4. Berger, J., Statistical Decision Theory and Bayesian Analysis (Second


Edition). New York; Springer-Verlag, 1985.

5. Bluhm, W.F., ed., Group Insurance. Winsted: ACTEX Publications, 1992.

6. Bowers, N., H. Gerber, J. Hickman, D. Jones, and C. Nesbitt, Actuarial


Mathematics. Chicago: Society of Actuaries, 1986.

7. Brosius, E., Loss Development Using Credibility (Part 7 Study Note).


Arlington: Casualty Actuarial Society, 1993.

8. Brown, R.L., Introduction to Ratemaking and Loss Reserving for


Property and Casualty Insurance. Winsted: ACTEX Publications, 1993.

9. Bühlmann, H., “Experience Rating and Credibility,” ASTIN Bulletin, 4


(1967), 119-207.
Referências Bibliográficas 197

10. _________, Mathematical Methods in Risck Theory. New York: Springer-


Verlag, 1970.

11. Bühlmann, H. and E. Straub, “Credibility for Loss Ratios” (Translated by


C.E. Brooks), ARCH, 1972.2 (1972).

12. De Vinti, T.R. and T.N. Herzog, “Modeling Home Equity Conversion
Mortages,” TSA, XLIII (1991), 261-275.

13. Draper, N. and H. Smith, Applied Regression Analysis (Second Editon).


New York: John Wiley and Sons, 1981.

14. Edwards, W., H. Lindman, and L.J. Savage, “Bayesian Statistical


Inference for Psychological Research,” 70 Psychological Review 193
(1963).

15. Efron, B. and C. Morris, “Steins’s Estimation Rule and Its Competitors –
Na Empirical bayes Approach,” JASA, 68, No. 341 (1973), 117-130.

16. _________, “Data Analysis Using Stein’s Estimator and Its


Generalizations,” JASA, 70, No. 350 (1975), 311-319.

17. _________, “Stein’s Paradox in Statistics,” Scientific American, 236, No.


5 (1977), 119-127.

18. Ericson, W.A., “On the Posterior Mean and Variance of a Population
Mean,” JASA, 65, No. 330 (1970), 649-52.

19. Fuhrer, C., “Some Applications of Credibility Theory to Group


Insurance,” TSA, XL, Part 1 (1988), 387-404.
Referências Bibliográficas 198

20. Gerber, H.U., An Introduction to Mathematical Risck Theory (S.S.


Huebner Foundation Monograph Series No. 8). Homewood: Richard D.
Irwin, 1979.

21. _________, “A Teacher’s Remark on Exact Credibility,” ASTIN Bulletin,


25 (1992), 189-192.

22. Goovaerts, M.J. and W.J. Hoogstad, Credibility Theory. Rotterdam:


Nationale-Nederlanden N.V., 1987.

23. Hansen, M.D. and Y.R. Wang, Managing Data Quality. A Critical Issue
for the Decade to Come. Cambridge: Sloan School of Management,
Massachusetts Institute of Tecnology, 1991.

24. Heckman, P.E. and G.G. Meyers, “The Calculations of Aggregate Loss
Distributions from Claim Severity and Claim Count Distributions,” PCAS,
70 (1983), 22-74; PCAS, 71 (1984), 49-66.

25. Herzog, T.N., An Introduction to Stochastic Simulation (Exam 130 Study


Note). Schaumburg: Society of Actuaries, 1983.

26. _________, “Bayesian Graduation of FHA/HUD Single-Family Home


Mortage Insurance Contracts – Section 203,” Insurance: Mathematics and
Economics, No. 2 (1983), 271-279.

27. _________, “Credibility: The Bayesian Model Versus Bühlmann’s


Model,” TSA, XLI (1989), 43-81.

28. _________, Discussion of “AIDS: Exponential vs. Polynomial Growth


Models,” by H.H. Panjer, Insurance: Mathematics and Economics, 9
(1990), 291.
Referências Bibliográficas 199

29. Herzog, T.N. and D.B. Rubin, “The Use of Multiple Imputations to
Handle Nonresponse,” Chapter 15 of Non-response in Sample Surveys:
The Theory of Current Pratice. New York: Academic Press, 1983.

30. Hewitt, C.C. Jr., “Credibility for Severity,” PCAS, 57 (1970), 148-71;
PCAS, 58 (1971), 25-31.

31. _________, “Loss Ration Distributions – A Model,” PCAS, 54 (1967), 70-


93.

32. Hogg, R.V. and A.T. Craig, Introduction to Mathematical Statistics


(Fourth Edition). New York: Macmillan Publishing Co., 1978.

33. Hogg, R.V. and S. Klugman, Loss Distributions. New York: John Wiley
and Sons, 1984.

34. Hossack, I.B., J.H. Pollard, and B. Zehnwirth, Introductory Statistics with
Aplications in General Insurance. New York: Cambridge University
Press, 1983.

35. James, W. and C. Stein. “Estimators with Quadratic Loss,” Proceedings of


the Fourth Berkeley Symposium on Mathematics, Statistics, and
Probability, Vol 1. Berkeley: University of California Press (1961), 361-
379.

36. Jewell, W.S., “The Credible Distribution,” ASTIN Bulletin, 7 (1974), 237-
69.

37. _________, “Preceding IBNYR Events and Delays I: Continuous Time,”


ASTIN Bulletin, No. 19 (1989), 25-55.
Referências Bibliográficas 200

38. _________, “Preceding IBNYR Events and Delays II: Discrete Time,”
ASTIN Bulletin, No. 20 (1990), 93-111.

39. _________, “A Survey of Credibility Theory,” Operations Research


Center, University of California, Berkeley, 1976.

40. Kimeldorf, G.S. and D.A. Jones, “Bayesian Graduation,” TSA XIX (1967),
66.

41. Klugman, S.A., “Credibility for Classification Ratemaking via the


Hierarchical Normal Linear Model,” PCAS, 74 (1987), 272-321.

42. _________, Bayesian Statistics in Actuarial Science. Boston: Kluwer


Academic Publishers, 1992.

43. London, D., Graduation: The Revision of Estimates. Winsted: ACTEX


Publications, 1985.

44. Longley-Cook, L.H., “An Introduction to Credibility Theory,” PCAS, 49


(1962), 194-221.

45. Mayerson, A.L., “A Bayesian View of Credibility,” PCAS, 51 (1964), 85-


104; PCAS, 52 (1965), 121-127.

46. Mayerson, A.L. and D.A. Jones and N.L. Bowers, “The Credibility of the
Pure Premium,” PCAS, 55 (1968), 175-185.

47. Morgan, I.M., Credibility Theory under the Collective Risk Model, Ph.D.
dissertation. Madison: University of Wisconsin, 1983.
Referências Bibliográficas 201

48. Morris, C. and L. van Slyke, “Empirical Bayes Methods for Pricing
Insurance Classes,” Proceedings of the American Statistical Association:
1978 Business and Economics Section, (1979), 579-582.

49. Mosteller, F. and G.W. Tukey, Data Analysis and Regression. Reading:
Addison-Wesley Publishing Company, 1977.

50. Mowbray, A.H., “How Extensive a Payroll is Necessary to Give a


Dependable Pure Premium?” PCAS, 1 (1914), 24-30.

51. Panjer, H.H. and G.E. Willmo, Insurance Risck Models. Schaumburg:
Society of Actuaries, 1992.

52. Perryman, F.S., “Some Notes on Credibility,” PCAS, 19 (1932), 65-84.

53. Philbrick, S., “An Examination of Credibility Concepts,” PCAS, 48


(1981), 195-219.

54. Raiffa, H. and R. Schlaifer, Applied Statistical Decision Theory,


Cambridge: Harvard University Press, 1961.

55. Rodermund, M., “Introduction,” Chapter 1 of Foundations of Casualty


Actuarial Science. New York: Casualty Actuarial Society, 1989.

56. Russo, G., “Continuous Time Models of the Reporting and Cost Process of
Insurance Claims” (Ph.D. Dissertation). Berkeley: University of
California, 1995.

57. Savage, L.J., The Foundations of Statistics. New York: John Wiley and
Sons, 1954.
Referências Bibliográficas 202

58. Sundt, B., “On Greatest Accuracy Credibility with Limited Fluctuation,”
Scand. Actur. J., 2 (1992), 109-119.

59. Tukey, J.W., Exploratory Data Analysis. Reading: Addison-Wesley


Publishing Company, 1977.

60. Velleman, P. and D. Hoaglin, Applications, Basics, and Computing of


Exploratory Data Analysis. Boston: Doxbury Press, 1981.

61. Venter, G.G., “Credibility,” Chapter 7 of Foundations of Casualty


Actuarial Science. New York: Casualty Actuarial Society, 1989.

62. Waters, H.R., Credibility Theory. Edinburgh: Heriot-Watt University,


1993.

63. Whitney, A., “The Theory of Experience Rating,” PCAS, 4 (1918), 274-
292.

You might also like