You are on page 1of 105

Tipos de Dependência entre Variáveis Aleatórias e Teoria

de Cópulas
Autor: Márcio Luis Lanfredi Viola
Supervisora: Profa. Dra. Verónica Andrea González-López
Instituto de Matemática, Estatística e Computação Científica (IMECC-UNICAMP)
Dezembro/2009

Sumário
1 Tipos de Dependência entre Variáveis Aleatórias

1

1.1

Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1

1.2

Funções Totalmente Positivas e Totalmente Negativas . . . . . . . . . . . . .

2

1.3

Dependência do Quadrante Positivo (e Negativo) e do Octante . . . . . . .

9

1.3.1

Variáveis Aleatórias Estocasticamente Crescentes e Decrescentes,
Dependência Crescente na Cauda à Direita e Dependência Decrescente na Cauda à Esquerda

. . . . . . . . . . . . . . . . . . . . . . . . .

12

1.4

Variáveis Aleatórias Negativamente Associadas . . . . . . . . . . . . . . . . .

17

1.5

Implicações e Contra-exemplos envolvendo os Conceitos de Dependência .

19

1.6

Tabelas referentes ao Capítulo . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23

2 Teoria de Cópulas

27

2.1

Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.2

Cópula e Teorema de Sklar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29

2.3

Cópulas Arquimedianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

2.4

Cópulas Multivariadas e a Transformada de Laplace . . . . . . . . . . . . . .

45

3 Variável BIPIT

55

3.1

Variáveis PIT e BIPIT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

55

3.2

Propriedades da função K . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

4 Tau de Kendall
4.1

67

Concordância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
i

67

5 Kendall Plot

79

5.1

Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79

5.2

Construção do Kendall Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

80

5.2.1

QQplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

80

5.2.2

Kendall Plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

Resultados e Fundamentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

84

5.3

Referências Bibliográficas

94

ii

. . vi ). . .2 Gerador φ não estrito e pseudo-inversa φ[−1] para a cópula Arquimediana W .3 57 Funções distribuição de Kendall das cópulas M (linha cheia preta). . . . . .3 Gerador φ estrito e pseudo-inversa φ[−1] para a cópula Arquimediana Π. . . . . H1i = C−0. . . 45 3. . . . 7} (primeira figura). . . . 3. . vi ) com Cθ cópula de Clayton com parâmetro θ (A linha com ponto e tracejado é a diagonal principal do gráfico). . família de Clayton para θ = {1. . . . . .5 (ui . . . . . . . . . . . vi amostras de U (0. . . 3. .1 e uma amostra {U1 . . . . n = 100. . . . . . . 1). . 4} (segunda figura). . . . . . . . H1n } respectivamente. . . 4}.Lista de Figuras 2. .5: H0i = Π(ui . . . 3. . W (linha cheia cinza) e família de Gumbel para θ = {1. . .2 56 QQplot das amostras das BIPITS H e H1 : {H1 . . . . . . . . . v ∈ I. . . . Hn } e {H11 . . yi ) da BIPIT H associada distribuição normal bivariada do Exemplo 3. . 3. . . . . . . . . dados exponenciais independentes transformados pelas acumuladas (segunda figura). 30 2. . . . . . . . . . 4. . . . . . . 3. . . . . onde Hi = H(ui . . . . .4 64 Funções λ(v). . 3. . . . . . . . 7} (primeira figura). . . . . .1 65 QQplots referentes Exemplo 4. . . iii 77 . . . . . . 3. W (linha cheia cinza) e família de Gumbel para θ = {1. vi ) = ui vi sendo ui . . família de Clayton para θ = {1. . . . . . . . . . . . . . . vi ). y1i ) = F1 (x1i )G1 (y1i ) sendo x1i com distribuição exp(2) e y1i com distribuição exp(10). . . . . . . . . . . 44 2. . . . U100 } com distribuição U (0. das cópulas M (linha cheia preta).1 QQplot entre a amostra Hi = H(xi . . . . . . . .1 Scatterplots: Dados exponenciais independentes (primeira figura). . . H2i = C2 (ui . . 1) e H1i = H(x1i . . . . . .

. y100 )} sendo xi com distribuição exp(2) e yi com distribuição exp(10) com {xi } gerados de forma independente de {yi }. . . . . . . .2. . . . de n = 100 pares de observações do vetor aleatório (X. . . . . . . . .5. . y1 ).5 89 91 Kendall Plot sob hipótese nula de cópula de Clayton θ = 2 (Wi:n. . . . . . .K0 referente a Clayton com θ = 2) de amostras aleatórias de tamanho n = 100 associadas a cópula de Clayton com os respectivos parâmetros θ = {0. . . . . . . . . . . . . . H n de n = 100 pseudo-observações da cópula 4. . . . . . . . 5. . . .4 90 Kendall Plot sob hipótese nula de independência. 5. . . . . . . 5. . . . . . . . . . . . . . .K = E(H(dnpe) ). . . iv 92 .5. . . e Wdnpe:n. .12 (primeira figura). . 5}. . . . . .1 b (dnpe) ≡ K −1 (p) proveniente Gráficos da inversa da função distribuição K −1 (p) vs. .2 88 Kendall Plot sob hipótese nula de independência para a amostra {(x1 . . . . . . . Y ) com Y = 1 − X. . . 5. . . n = 100. . sob hipótese da mesma cópula (segunda figura). . . . . . . .3 Kendall Plot sob hipótese nula de independência de n = 100 pares de observações do vetor aleatório (X. . . . . . . . . . Y ) com Y = X. . 2. . . (x100 . . .

. . . . . . . . . . . . .Lista de Tabelas 6. X2 . . . . . . . . . . . .1 Função de probabilidade conjunta de (X1 . . . . . . . . 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Algumas famílias paramétricas de cópulas Arquimedianas com seus geradores e espaços paramétricos (*na cópula de Clayton o gerador é estrito se θ ≥ 0. . . . . . . .1 44 62 Medida de associação τ de Kendall expressa em função do parâmetro θ para algumas famílias de cópulas Arquimedianas. . . Y2 ) . . . . . .4 Função de probabilidade conjunta de X e Y . . .3 Função de probabilidade conjunta de X e Y . 24 6. . . . . . . . . . . . . . . . . . . . . . . . . . X3 . . . . . . . . . . . . . . 1 70 . . . . . . . . . . . . . . . 24 6. . . . . . . . . . . . . . . . . . 24 6. . . . .5 Função de probabilidade conjunta de (Y1 . . . 1. . X4 ) . . . . . . . . . caso contrário é não estrito). . . . . . . . . . . . . . . . . . . . . . . . . 25 3. . . 24 6. . . . . . . . . . . . . . . . .1 Cópulas Arquimedianas da Tabela 3. . .1 com os respectivos geradores φ e funções distriuição K. . . . .2 Função de probabilidade conjunta de X e Y .

2 .

dependência M T P2 ou M RR2 . isto é. por exemplo.Capítulo 1 Tipos de Dependência entre Variáveis Aleatórias 1.1 Introdução Os conceitos e análise de dependência são necessários para o entendimento do modelo a ser considerado e quando este pode ser aplicado. No entanto. um modelo multivariado pode ser analisado a partir das estruturas de dependência que ele consiga cobrir em relação ao universo das estruturas de dependência possíveis. Isto inclui a análise da estrutura de dependência conveniente ao modelo e se a dependência do modelo aumenta quando os parâmetros multivariados aumentam. O estudo dos vários tipos de dependência é importante pois um dado modelo de cópula pode ser mais adequado para um tipo de dependência pretendido do que para outro. pode ser difícil a comprovação das propriedades teóricas assumidas pelos modelos. as propriedades de dependência são importantes para a avaliação da adequação de um modelo particular perante uma dada aplicação ou um conjunto de dados. e outros que podem ser considerados 1 . Por exemplo. Há várias formas para definir dependências sendo que há conceitos que podem ser considerados mais fortes como. há modelos de cópula que modelam dependências positivas (limitante superior de Fréchet [25]) enquanto que há modelos de cópula que modelam dependências negativas (limitante inferior de Fréchet [25]). Assim. na prática.

A função será totalmente positiva de ordem r..... . Definição 1. satisfazendo f (x ∨ y)f (x ∧ y) ≥ f (x)f (y) (2..j=1. < xm . O caso discreto é análogo.2.. se para todo x1 < . . Para a análise das definições acima será considerado o caso n = 2. . y) não-negativa de duas variáveis definidas em χ = χ1 × χ2 sendo χ1 e χ2 totalmente ordenados. 1 ≤ m ≤ r..1) será denominada função multivariada totalmente positiva de ordem 2 (“multivariate totally positive of order 2”) denotada por M T P2 . y1 ). × χn onde cada χi é totalmente ordenado.. o determinante da matriz quadrada de ordem r...2 mais fracos como. .. y1 < . < ym .. Um vetor aleatório X = (X1 . serão dadas as definições e propriedades utilizando-se funções contínuas. 1.. Seja uma função f (x) uma função não-negativa definida em χ = χ1 × χ2 × . 1 ≤ m ≤ r.1) considerando-se ≤ no lugar de ≥ será chamada função multivariada totalmente negativa de ordem 2 (“multivariate reverse rule of order 2”) denotada por M RR2 [28]....... yi ∈ χ2 . é definido como sendo [26] . A função f (x) que satisfizer a desigualdade (2... |f (xi .m . max(xn .1...2 Funções Totalmente Positivas e Totalmente Negativas As definições dadas a seguir referem-se à funções gerais sendo que a função densidade ou a função de probabilidade são casos particulares. por exemplo. será dada uma interpretação para cada um dos conceitos citados. xi ∈ χ1 . Definição 1. Xn ) de n componentes será chamado M T P2 se sua função densidade for M T P2 [27]. yn )) e x ∧ y = (min(x1 . Para este caso. yn ). ∀x. dependência PQD ou NQD. y1 ). por simplicidade. yn )). . Seja uma função f (x. yi )|i. y onde x = (x1 ... min(xn . denotada por T Pr . Nesta seção.1) onde ∨ e ∧ são operações definidas como sendo x ∨ y = (max(x1 .. xn ) e y = (y1 .. A função densidade que satisfizer (2..

2.. yi )|i....3 |f (xi .j=1.m .

.

f (x ... y ) . y ) . y ) f (x . f (x .

1 1 1 2 1 m .

.

y1 ) f (x2 . f (x2 . y2 ) ... f (x2 . ym ) .

.

.

. . = . .

.

. . . .

.

.

. . . .

.

.

f (xm , y1 ) f (xm , y2 ) ... f (xm , ym )

.

.

.

.

.

.

.

.

.

.

.

.

.

Os conceitos T P2 e RR2 podem ser estendidos. x2 ) significa que é mais provável que ocorram dois pares com componentes assumindo valores grande-grande ou pequenopequeno do que dois pares com componentes assumindo valores grande-pequeno ou pequeno-grande. n ≥ 2. a partir da condição de que o determinante (2. .. Quando r = 2. Neste caso. y2 ) ≥ f (x1 .a F) serão RR2 aos pares se sua correspondente medida de probabilidade em Rn for RR2 aos pares. Quando a função f for uma função densidade. x2 )f (y1 . 23]: Definição 1. In ) for RR2 nos pares Ii . x2 ) ≤ 0 para toda escolha x1 < x2 e y1 < y2 . I < J se x ∈ I..1. As v. . a função f (x. obtém-se f (x1 . y2 )f (y1 . x2 ) ≥ 0 para toda escolha x1 < x2 . Seja µ e uma medida de probabilidade em R2 . x2 )f (y1 . . . xi ∈ χ1 . I2 )e µ(I1 .. Se I1 .2) for não-negativo. 2. (2. I2 < I2 em R... . yi ∈ χ2 . In ) = µ(I1 ×.3..2) seja não-negativo.. Definição 1.×In ). y2 ) − f (x1 . Ij para todo 1 ≤ i < j ≤ n sendo que as demais variáveis (intervalos) são mantidas fixas.... Esta medida será RR2 se 0 0 0 0 0 0 µ e(I1 . Esta medida será RR2 aos pares se µ e(I1 . xi ∈ χ1 . Este conceito foi generalizado por meio da Definição 1. n. yi ∈ χ2 . I2 )e µ(I1 . i = 1. Define-se [2.. i = 1. y2 )f (y1 . o seu domínio será real. In forem intervalos em R. Seja µ e uma medida de probabilidade em Rn ... não-negativa. y1 < y2 . 2 [28]. ou seja. Considere µ uma medida de probabilidade nos conjuntos de Borel em Rn . y ∈ J implicar em x < y . Xn (ou o vetor aleatório X ou sua f. define-se µ e(I1 . de duas variáveis reais.a.4... I2 ) ≤ µ e(I1 . definidas em χ1 × χ2 sendo χ1 e χ2 totalmente ordenados será totalmente negativa de ordem 2 (“reverse rule of order 2”). y) será totalmente positiva de ordem 2 (“totally positive of order 2”) [27].d. denotado por RR2 se f (x1 ... Uma função f (x.. . x2 )f (y1 . A condição de dependência positiva f (x1 . y2 ) − f (x1 . i = 1. y). y2 )f (y1 . I2 ) para todos os intervalos I1 < I1 . χi = R. X1 . Se I e J forem intervalos em R.

. .. Seja f uma função densidade M T P2 em χ. possui função densidade...... ∞) é P Fr (“Pólya frequency function of order r) se f (x − y) for T Pr . . M T P2 em Rn e suponha que X e Y são independentes.. ζ= Qn i=1 ζi onde χi . 1. R h(y.dxn χk+1 é M T P2 .. As propriedades 1 à 4 são úteis para a obtenção de funções densidade M T P2 a partir de outras funções densidade M T P2 e as propriedades 5 à 7 são úteis para a obtenção de funções densidade M T P2 a partir de funções densidade P F2 e/ou T P2 . Sejam f e g funções densidade M T P2 . em Qk i=1 χi dada por Z Z ϕ(x1 .. x ∈ χ. ξi e ζi são espaços totalmente ordenados. xk+1 . χn f (x1 .. Sejam χ = Qn i=1 χi .... z) = χ f (y... . Seja Y = (Y1 .. ξ= Qn i=1 ξi .. n. Yn ) um vetor aleatório com função densidade conjunta. xk ) = . Então. n. xn ) = ( ni=1 φi (xk ))f (ϕ1 (x1 ). Então.. em ξ × χ e χ × ζ. . Xn independentes onde cada Xi ... −∞ < x. em χ1 .. Define-se. . independente de X possuindo função densidade fXo . . .. σ = σ1 × . P F2 e seja Xo uma v.... . 1 Uma função f (x) definida em (−∞. fY . 3. Xn independentes onde cada Xi .. 2. . Zn ) é M T P2 .. ϕn (xn )) será M T P2 em χ.. a função f g será M T P2 . Então a função densidade marginal. A demonstração das propriedades podem ser encontradas em [27].. Então. serão apresentadas algumas propriedades referentes ao conceito M T P2 . 4. Define-se Zi = Xi + Xo .. xn )dxk+1 . ϕ. .. . Se f (x) for M T P2 . . P F2 1 . χn e {φk (xk )}nk=1 forem funções positivas. fXi .... . Então. . xk . . . Então.. ϕn forem todas funções crescentes (ou todas funções decrescentes).. a Q função ψ(x) = ψ(x1 . Se f e g forem funções densidade M T P2 ... 6. respectivamente... i = 1. fXi . possui função densidade. h é uma função M T P2 em ξ × ζ. y < ∞ [26]. i = 1.. Xn ) um vetor aleatório composto por variáveis aleatórias X1 . Seja X = (X1 . respectivamente... 5. ϕ1 .a. x)g(x... z)dσ(x). Seja X = (X1 . × σn .. Z = X + Y possui uma função densidade M T P2 . n...4 A seguir. ... Xn ) um vetor aleatório composto por variáveis aleatórias X1 . i = 1.... a função densidade conjunta de Z = (Z1 ..

. Xn independentes onde cada Xi . ϕk funções não-negativas em Rn sendo todas crescentes (ou todas decrescentes)... Vale observar que.. são denominadas variáveis aleatórias associadas. Sejam ψ e ϕ. Xn Xo ) e W = (X1 /Xo . Seja X = (X1 . . Xn /Xo ) terão funções densidade M T P2 ..a.. fXi . da propriedade 8.. em Rn .... obtém-se a propriedade 3 e que da propriedade 2. Xn ) um vetor aleatório possuindo densidade conjunta M T P2 . Xn ) um vetor aleatório satisfazendo a expressão (2. 27]: Definição 1. Xk ) será M T P2 onde 2 ≤ i. k < n E. Xn ) um vetor aleatório formado por v. i = 1... ambas funções crescentes (ou ambas funções decrescentes)..5. Então. obtém-se que Cov(ϕ(X). E[ϕ(X)ψ(X)] ≥ (E[ϕ(X)])(E[ψ(X)])..... obtém-se: Variáveis aleatórias independentes possuem função densidade conjunta M T P2 . As componentes de X.. .. ... associadas e sejam ϕ1 . Se. Utilizando-se a definição anterior. .. n possui função densidade.. .. n... Seja X = (X1 .. Seja Xo uma variável aleatória positiva.1. Então.4) i=1 i=1 . " k # k Y Y E ϕi (X) ≥ E [ϕi (X)] (2. fXi (u/v) for T P2 em −∞ < u < ∞ e v > 0. ...5 7.3) para qualquer par de funções crescentes (ou decrescentes) ψ e ϕ. . Xn . ou fXi (uv) for T P2 em −∞ < u < ∞ e v > 0. então ambos os vetores aleatórios Z = (X1 Xo ... X1 . para i = 1. Seja X = (X1 . utilizando-se as propriedades 1 e 2. obtém-se o seguinte resultado: Teorema 1.. ψ(X)) ≥ 0 (2.. .. .3) a qual sugere a seguinte definição [11. . . Xn ) um vetor aleatório composto por variáveis aleatórias X1 ... por exemplo.. 8.. . (Xi . Seja X = (X1 .. Da propriedade 1 obtém-se: Se X = (X1 . Xn ) for M T P2 então qualquer subconjunto formado pelas componentes de X..

. .. associadas [11]. Xn. tais desigualdades designarão outros tipos de dependência. . Um conjunto formado por uma única v.. associadas forem independentes. 2. Tn ) serão associadas. Tn ) for um vetor aleatório com Ti .5) i=1 Especialmente. . Um subconjunto de v. serão apresentadas algumas propriedades referentes à v... (k) (k) (k) 6.. Xi .i. Xn ≥ cn ) ≥ ni=1 P (Xi ≥ ci ) e P (X1 ≤ c1 .6 Demonstração: Para a demonstração consulte [27]. associadas para cada k e T(k) → T. é associado.... Funções não-decrescentes de v.4) do teorema anterior fornece E[ϕ1 (X1 )... então a união será um conjunto de v.a. Xn ) uma amostra aletória formada por variáveis aleatórias i.. n. associadas. se ϕi (X) = ϕi (Xi ). .a.n é M T P2 .. 5.. associadas é associado. a densidade conjunta das estatísticas de ordem X1. possuindo função densidade f . .. a seguir.d.n . . Variáveis aleatórias independentes são associadas.. a expressão (2. . .. associadas são associadas. n. A seguir. Em particular. 1.a. então as componentes do vetor aleatório T = (T1 . i = 1. Xn ≤ cn ) ≥ ni=1 P (Xi ≤ ci )..a. Serão apresentados. Então. a expressão (2... alguns exemplos de funções densidade M T P2 [27]. • Exemplo 1: Seja X = (X1 ..a. i = 1..ϕn (Xn )] ≥ n Y E[ϕi (Xi )] (2. em distribuição.. Se dois conjuntos de v.a. Vale observar que a partir do conceito de dependência M T P2 obteve-se o conceito de variáveis aleatórias associadas. o conceito de dependência M T P2 é mais forte do que o conceito de variáveis aleatórias associadas no sentido de que o primeiro implica no segundo. 4. Se T(k) = (T1 .5) permite demonstrar Q Q P (X1 ≥ c1 ... . 3. Na próxima seção. Com isso..

n. Xn v. (|Z1 |. αi > 0. . A seguir. • Exemplo 4: Seja X1 ... pela propriedade 6 referente à função densidade M T P2 .. . A função densidade fXi (u/v) = ci (u/v)αi −1 e−βi (u/v) .... ...... • Exemplo 6: Seja X = (X1 .. . βi ). serão apresentadas algumas propriedades referentes às funções M RR2 [28]. tem-se que a sua densidade conjunta será M T P2 . n..7 P • Exemplo 2: Considere que X = (X1 . Xn ) ∼ N (0. • Exemplo 5: Seja X1 . βi > 0. .... Seja Z = (Z1 . a Distribuição Logística Multivariada é M T P2 pelas propriedades 2 e 4 referentes à função densidade M T P2 .. Este núcleo é T P2 em cada par de variáveis.... i = 1... Xn /S)..a. Xn v. n. . I) e S ∼ χ2 . tem-se que a sua densidade conjunta será M T P2 ..... Esta distribuição será M T P2 se e P somente se − −1 possuir elementos fora da diagonal não-negativos.. . . . então o vetor Z = ((X1 /ν1 )(Xo /νo )−1 . i = 1. . Xn e Xi ∼ χ2νi . αi ≥ 1. independentes com Xi ∼ Gama(αi . . Se Xo for independente de X1 . Xo ∼ Gama(αo ... pela propriedade 7 referente à função densidade M T P2 .. Com isso. é T P2 para u e v positivos.. O vetor aleatório Z possui Distribuição de Cauchy multivariada.... . A função densidade fXi (x) = ci xαi −1 e−βi x . independentes com Xi ∼ Gama(αi .a. • Exemplo 3: A função densidade da Distribuição Logística Multivariada é definida como sendo ( f (x1 . então o vetor Z = (X1 + Xo . βi ).. ). X e S independentes. |Zn |) possui densidade conjunta M T P2 considerando o mesmo argumento do exemplo prévio desde que e−u 2 /v 2 é T P2 com u > 0. . βi > 0.... . x > 0 é P F2 . . Xn ) ∼ N (0. Zn ) = (X1 /S... Se Xo for independente de X1 .. Xn + Xo ) possui Distribuição Gamma Multivariada e.. (Xn /νn )(Xo /νo )−1 ) possuirá Distribuição F Multivariada e... v > 0.. . i = 1.. xn ) = n!exp − n X )( 1+ xi i=1 n X )−(m+1) −xi e i=1 O Núcleo Generalizado de Cauchy é dado por k(y) = (1 + 1 Pn α i=1 yi ) onde yi > 0. Xn . βo ). Então.

serão apresentados alguns exemplos de distribuições M RR2 [28]. . 0 ≤ xj e θj ≥ 1.. independentes tais P P que Xi ∼ Binomial(ni . A Distribuição de Dirichlet é M RR2 . j = 0. n.. a função ψ(x) = ψ(x1 . xn )=f (ϕ1 (x1 ). . Xn ) um vetor aleatório.7) m = M onde x = (x1 .. .... • Exemplo 1: Seja X = (X1 . A seguir... .... pi ).. . que esta é M RR2 .. • Exemplo 2: Seja X = (X1 . .a.8) j=1 ≤ 1.6) i=1 onde x = (x1 ... A função de probabilidade da Distribuição Hipergeométrica Multivariada é dada por " PX (x) = com Pn i=1 xi Qn i=1 Mi !# xi = m.. Se f e g forem funções M RR2 . • Exemplo 3: Seja X = (X1 . ϕn forem todas funções crescentes (ou todas funções decrescentes). .. A função densidade da Distribuição de Dirichlet é dada por  θ0 −1 P n n X Y Γ( nj=0 θj ) θ −1 1 − f (x) = Qn xj  xj j Γ(θ ) j j=0 j=1 onde Pn j=1 xj (2. . 0 ≤ xi ≤ Mi .8 1... ... .. Esta distribuição é denominada Distribuição Multinomial e. em χ1 . .) a Função Gama. i = 1. Se f (x) for M RR2 com x ∈ χ e ϕ1 . respectivamente.. Então. n e M− m− Pn Pn i=1 Mi Pn i=1 xi i=1 Mi ! M !−1 (2..... Xn ) um vetor aleatório.ϕn (xn )) será M RR2 em χ.. n sendo Γ(. xn ) representa um dado valor que o vetor aleatório X assume. 2. χn . . a função f g será M RR2 ... ni=1 Xi = N . A distribuição de X é dada por n Y x N! Pn PX (x) = Qn pi i x ! (N − x )! i i i=1 i=1 1− n X i=1 !N −Pni=1 xi pi (2.... Xn ) um vetor aleatório composto por v. Então. xn ) representa um dado valor que o vetor aleatório X assume e pi ≥ 0. ni=1 pi = 1. . i = 1. Esta distribuição é M RR2 .. pode-se mostrar.

. F . an ) ∈ Rn . .. F ....7. X = (X1 .. às seguintes: Seja X = (X1 . Definição 1.. dependência do octante superior negativo (“negative upper orthant dependent”) e dependência do octante negativo (“negative orthant dependent”) [25].3 Dependência do Quadrante Positivo (e Negativo) e do Octante Considere X um vetor aleatório de dimensão n (n ≥ 2) com f. . ∀a = (a1 ..5).7.8 e 1. Define-se a dependência do octante superior positivo (“positive upper orthant dependent”) e a dependência do octante inferior positivo (“positive lower orthant dependent”) [25] como sendo: Definição 1.9. an ) ∈ Rn . an ) ∈ Rn ... . Então..8. . para n ≥ 3. Se X verifica as Definições 1.. Xn ) ou F possuem dependência do octante inferior positivo (PLOD) Q se P (Xi ≤ ai ..6 e 1.. i = 1. em geral. X = (X1 .9.. simultaneamente.9 então X ou F possuem dependência do octante negativo (NOD).d. valores grandes comparado com o vetor de v. Xn assumam.d.6.. . serão enunciados os conceitos de dependência do octante inferior negativo (“negative lower orthant dependent”).. Porém. i = 1. vale para as definições 1.. . ∀a = (a1 .. Similarmente. n) ≥ ni=1 P (Xi ≤ ai ). . Xn ) ou F possuem dependência do octante superior negativo (NUOD) Q se P (Xi > ai . definições acima se reduzem. i = 1.. para n = 2.. an ) ∈ Rn .. i = 1. X2 ) um vetor aleatório bivariado com f. Com isso. As expressões que compõem as definições 1. define-se a dependência do quadrante positivo (“positive quadrant dependent”) [30. para n = 2. ... . ∀a = (a1 . . ∀a = (a1 . independentes com as mesmas correspondentes distribuições marginais univariadas... 25] como sendo: . Se X verifica as Definições 1. elas se equivalem..7 então X ou F possuem dependência do octante positivo(“positive orthant dependent”) denotada por POD.6 significa que é mais provável que X1 ... Isto. X = (X1 ..a. Definição 1. também... Xn ) ou F possuem dependência do octante superior positivo (PUOD) Q se P (Xi > ai .a. Definição 1.. Xn ) ou F possuem dependência do octante inferior negativo (NLOD) Q se P (Xi ≤ ai .a.. . não se equivalem (veja um contra-exemplo na seção 3. X = (X1 ..9 1..8 e 1..6 e 1. . Intuitivamente.. n) ≥ ni=1 P (Xi > ai ).2. n) ≤ ni=1 P (Xi > ai ).. n) ≤ ni=1 P (Xi ≤ ai ). a expressão da Definição 1. .

P (X1 ≤ a1 . Se o vetor de v. Se o vetor de v. P (X1 ≤ a1 .. ou equivalentemente.10 Definição 1. X ou F possuem dependência do quadrante positivo (PQD) se P (X1 > a1 .10.10 representa uma condição de dependência positiva e significa que é mais provável que X1 e X2 assumam. Fi é PQD e r. Y ) for PQD. 3. deixando as demais fixas. X) será PQD para todo X. será apresentada a dependência do quadrante negativo(“negative quadrant dependent”) [30. ∀a1 . (Xn .11. s(Y )) será PQD se r e s forem funções não-decrescentes. Definição 1.a. A seguir. Fn . independentes. conjuntamente. 25] definido a seguir. ambas são funções não-decrescentes ou ambas são funções não-crescentes. −Y ) será NQD. 2. deixando as demais fixas. Yn ) pares independentes de v. . . uma das funções é não-decrescente e a outra é não-crescente.. serão apresentadas algumas propriedades referentes ao conceito de dependência PQD e NQD [30]..a.. Y ) for PQD então o vetor (r(X).. para cada i. ou equivalentemente.. s são concordantes 2 para a i-ésima coordenada ou. Fi é NQD e r. Duas funções reais r e s de n variáveis independentes serão concordantes para a i-ésima coordenada se. Sejam r e s funções de n variáveis e sejam X = r(X1 . a2 ∈ R. .a.. Similarmente. 4. então o vetor (X. Então: (a) (X. a2 ∈ R. ∀a1 . considerando-as funções da i-ésima coordenada. . (X.a. X ou F possuem dependência do quadrante negativo (NQD) se P (X1 > a1 . X2 > a2 ) ≥ P (X1 > a1 )P (X2 > a2 )... (X. com funções de distribuição F1 .a. X2 ≤ a2 ) ≤ P(X1 ≤ a1 ) P(X2 ≤ a2 ). X2 > a2 ) ≤ P (X1 > a1 )P (X2 > a2 ).. valores grandes ou pequenos comparado com 0 d 0 0 d 0 0 0 X1 e X2 onde X1 = X1 e X2 = X2 sendo X1 e X2 ) v. ii. Y1 ). considerando-as funções da i-ésima coordenada. (X... ∀a1 . as seguintes condições forem válidas: 2 i. a2 ∈ R. Yn ). O vetor de v. . A expressão da definição 1. ∀a1 . Xn ) e Y = s(Y1 . 1. 3 Duas funções reais r e s de n variáveis independentes serão concordantes para a i-ésima coordenada se. s são discordantes 3 para a i-ésima coordenada. Y ) será PQD se. a2 ∈ R. Sejam (X1 .. X2 ≤ a2 ) ≥ P(X1 ≤ a1 ) P(X2 ≤ a2 ).

com funções de distribuição F1 . as seguintes condições forem válidas: i. Xn ) e Y = s(V. Yn ) pares independentes de v. • Exemplo 3: Para quaisquer v.. para cada i.a. . ϕn (Xn ) serão v.. (X. Sejam (X1 .).. Então..a. Se (X. X1 . Então. A seguir.a. V e Z forem v.. Yn ) e sejam X = r(U.. PQD [30]. independentes será NOD. Xn ).. ϕ1 (X1 ). Qualquer conjunto de v. X e para qualquer função não-decrescente s. continuam válidas. NOD será NOD.. .a. Agora. 4. Y = V + bZ) será PQD se as constantes a e b tiverem o mesmo sinal para quaisquer v.a... Y1 ). Z).. o vetor (X. . serão apresentados alguns exemplos de v.a. X1 . Y = s(V.. 2. Xn forem v. NOD será NOD. .. as conclusões dos ítens (a) e (b) na propriedade 4. V e Z.. Qualquer subconjunto de tamanho ≥ 2 formado por v.a. Y ) será NQD se. (Xn . ii... Y ) for PQD e se existirem E(XY ).. s são concordantes para a i-ésima coordenada. . (Xn . NOD. s(X)) será PQD. E(X) e E(Y ). Fi é PQD e r. 3. 6. As justificativas dos exemplos baseiam-se nas propriedades anteriores. Z)) será PQD se U .. • Exemplo 2: (X = U + aZ. • Exemplo 1: Para qualquer v. . Fi é NQD e r. NOD e ϕ1 . independentes e independentes de (X1 .a.. s são discordantes para a i-ésima coordenada ou. • Exemplo 4: (X = r(U. independentes X e V . 5.. independentes U . A união de conjuntos independentes de v.a.. Se X1 .a. serão apresentadas algumas propriedades relativas ao conceito NOD [8]: 1. Y1 ).. Fn .11 (b) (X.. então E(XY ) ≥ E(X)E(Y ).. independentes e r e s forem funções não-decrescentes em Z (arbitrárias para as demais v.a.a. Sejam U e V v.a.. Y = X + V ) será PQD. . . . ϕn forem funções Borel-mensuráveis crescentes com valores reais.

3. Xn ) possuirá dependência positiva através da ordenação estocástica. F2 ). Se.. denotada por SD.. ter-se-á que X1 será SI em X2 ou F1|2 será SI.d. trocarmos os índices 1 por 2 e 2 por 1.12.. denotada por SI. na Definição 1. X2 ) um vetor aleatório bivariado possuindo f.8) é NOD. O vetor aleatório (X1 . se [X1 . a variável aleatória X2 será estocasticamente decrescentes (“stochastically decreasing”). Xi−1 |Xi = xi ] for estocasticamente crescente quando xi aumentar. Definição 1. trocarmos ↑ por ↓. Há dois conceitos de dependência que podem ser considerados como uma extensão multivariada do conceito SI (Definição 1. A expressão da definição 1.. ∀x2 [25].7) é NOD. Se. • Exemplo 3: A Distribuição de Dirichlet dada por (2. Dependência Crescente na Cauda à Direita e Dependência Decrescente na Cauda à Esquerda Denotando-se =(F1 . em X1 [25].. na Definição 1.. 1... A variável aleatória X2 será estocasticamente crescente (“stochastically increasing”).1 Variáveis Aleatórias Estocasticamente Crescentes e Decrescentes.. em X1 ou a distribuição condicional F2|1 será estocasticamente crescente (↑) se P (X2 > x2 |X1 = x1 ) = 1 − F2|1 (x2 |x1 ) ↑ x1 . serão apresentados alguns exemplos de distribuições NOD [23]. denotada por PDS..13. n. considere X = (X1 . para todo i = 1. • Exemplo 2: A Distribuição Hipergeométrica Multivariada dada por (2. .12 Também.. .. .. Define-se: Definição 1.6) é NOD. . .12.12 representa uma condição de dependência positiva e significa que a probabilidade de que X2 ultrapasse um limiar x2 é crescente quando X1 aumentar.a F ∈ =(F1 . Fn ) como a classe das distribuições multivariadas que possuem funções de distribuição marginais F1 .. ..12): dependência positiva através da ordenação estocástica (“positive dependence through the stochastic ordering”) e dependência condicionalmente crescente em sequência (“conditional increasing in sequence”)[8]. • Exemplo 1: A Distribuição Multinomial dada por (2.12. Fn .

. . . respectivamente.. ...16) e NOD (veja as Definições 1.. . Xn |Xo + X1 + .. tem-se a seguinte propriedade [23]: Sejam Xo .... . Xi−1 ≤ xi−1 . para x fixo. tem-se as seguintes definições [8]..16. respectivamente. Nas Definições 1... . O vetor aleatório (X1 ... Os conceitos de v... i = 1. CDS (veja a Definição 1. pode-se considerar X1 . Xi−1 = xi−1 ) ↓ (for decrescente em) x1 . .. As v.. . . Xi−1 > xi−1 ou X1 ≤ x1 . PDS equivale à X2 SI em X1 e X1 SI em X2 .... O vetor aleatório (X1 .. . possui função densidade ou função de probabilidade P F2 . xi−1 . n [23]. Xn serão crescentes na cauda à direita em sequência (“right-tail increasing in sequence”). . das v. ∀xi .. ..9). Dessa forma. se [X1 .13 Definição 1.a.8 e 1. . para todo i = 1. .. PDS e CIS possuem as seguintes versões para dependência negativa: dependência negativa através da ordenação estocástica (“negative dependence through the stochastic ordering”) e dependência condicionalmente decrescente em sequência (“conditional decreasing in sequence”). .. aos valores fixo x1 ... isto é. Xn ) possuirá dependência negativa através da ordenação estocástica. consequentemente.. independentes sendo que cada v.a. xi−1 . Para v. Xn ) possuirá dependência condicionalmente decrescente em sequência. Definição 1... denotada por CDS.. xi−1 . em X1 > x1 .. ... .a. se P (Xi > xi |X1 = x1 . ∀xi .... Note que.. + Xn = x) são RR2 aos pares e. X1 . ao invés.. as v. Xi−1 = xi−1 ) ↑ (for crescente em) x1 . denotada por RTIS. Xn v.. Definição 1. Xi−1 condicionadas. Xi−1 |Xi = xi ] for estocasticamente decrescente em xi . Xi−1 serem condicionadas.14 e 1... X1 .. denotada por CIS.a. .. X1 .. Definição 1..16.. . condicionais (X1 .a.. denotada por NDS.. para n = 2. Xi−1 > xi−1 ) ↑ (for crescente em) x1 ... Da mesma forma.. Xi−1 ...a. ..a.. i = 1. serão CDS e NOD.. CIS equivale à SI. n. se Xi for estocasticamente crescente em X1 . n [8]. se P (Xi > xi |X1 > x1 .... .. n. . xi−1 .. ∀xi .17..14.. O vetor aleatório (X1 ... i = 1... se P (Xi > xi |X1 = x1 .. Xn ) possuirá dependência condicionalmente crescente em sequência. . .. Então.15.

em X1 se P (X2 > x2 |X1 > x1 ) = 1−F (x1 . X2 será decrescente na cauda à direita (“right-tail decresing”)... denotada por LTD. Se n = 2. ∀x2 [8.. CDS. RTDS. na Definição 1. X1 .17 e 1. Pela Definição 1. ∀xi . 25]. ∀xi .x2 ) 1−F1 (x1 ) ↑ x1 . a Definição 1.18 torna-se: A v. ∀x2 [8]. tem-se que é mais provável que X2 assuma valores pequenos quando X1 diminuir.... X1 . n. em X1 se P (X2 ≤ x2 |X1 ≤ x1 ) = F (x1 .17 e 1.. Se.17 torna-se: A v.. P (X2 > x2 |X1 > x1 ) = F (x1 . algumas propriedades referentes às dependências SI.a. .. a monocidade ↑ for trocada por ↓ tem-se que as v.a. n [8] sendo que. As v. ou seja... X2 será SD em X1 se e somente se X2 for SI em −X1 .. RTD serão dadas [8]: 1. na Definição 1. Xi−1 > xi−1 ) ↓ x1 . se P (Xi ≤ xi |X1 ≤ x1 .. ... .a. a Definição 1.. denotada por RTDS. Xn serão crescentes na cauda à esquerda em sequência (“left-tail decreasing in sequence”)... Xi−1 ≤ xi−1 ) ↑ x1 .a. P (X2 ≤ x2 |X1 ≤ x1 ) = F (x1 . . 2... As expressões nas Definições 1. X2 será crescente na cauda à esquerda (“left-tail incresing”). Se.. pela Definição 1. . X2 será crescente na cauda à direita (“right-tail increasing”). X1 . . i = 1.a..a. denotada por LTIS. se P (Xi ≤ xi |X1 ≤ x1 . ∀x2 [25]. para n = 2. . xi−1 . . X2 será decrescente na cauda à esquerda (“left-tail decreasing ”). a v..x2 ) F1 (x1 ) ↓ x1 . Y ) possuindo função densidade f (x. A seguir. denotada por RTI. P (Xi > xi |X1 > x1 . a monocidade ↑ for trocada por ↓. xi−1 . Xn serão decrescentes na cauda à direita em sequência (“right-tail decreasing in sequence”).. Xi−1 ≤ xi−1 ) ↓ x1 . Seja o vetor aleatório (X. nas Definições 1. . . para o caso em que n = 2. a monocidade ↑ for trocada por ↓ tem-se que as v.. Xn serão decrescentes na cauda à esquerda em sequência (“left-tail decreasing in sequence”). 25]. ou seja. Se n = 2.18. i = 1.14 Definição 1. SD. para o caso em que n = 2. denotada por LTDS. denotada por RTD. Se. xi−1 . a v. ∀x2 [8. y) satisfazendo . ∀xi . tem-se que é mais provável que X2 assuma valores grandes quando X1 aumentar.x2 ) F1 (x1 ) ↓ x1 .18.17.x2 ) F1 (x1 ) ↑ x1 ...18. para n = 2. i = 1..18. n [8] sendo que.18 são condições de dependência positiva. em X1 ... . ou seja.17. E.a.. Além disso. denotada por LTI.. ... em X1 . ter-se-á os conceitos referentes à dependência negativa.. X2 será SD em X1 se e somente se −X2 for SI em X1 ..

15 .

.

y ) 1 1 1 2 . y ) f (x . f (x .

.

.

y1 ) f (x2 . y2 ) . f (x2 .

.

.

.

≤0 .

. 3. para cada escolha x1 < x2 .. . y1 < y2 . xn ) que satisfaz . Sejam: (a) (X1 . .... Y será SD em X.. Xn ) um vetor aleatório possuindo função densidade f (x1 . Então.

.

... x . x0 . . x .. .. .... f (x ..... x . x ) f (x . .. x ) 1 i j n 1 i n .... ....

j .

f (x1 , ..., x0 , ..., xj , ..., xn ) f (x1 , ..., x0 , ..., x0 , ..., xn )
i
i
j

.

.

≤0 .

.. 4.. ϕn forem funções Borel-mensuráveis crescentes. Então..9) 0 para cada par de variáveis permanecendo as demais fixas onde xi < xi e xj < xj . X2 é RTD em X1 ⇔ P (X2 ≥ x2 |X1 > x1 ) ↓ x1 para todo x2 ⇔ E(ϕ(X2 )|X1 > x1 ) ↓ x1 para toda função real ϕ crescente.. Xn ) será CDS e cada permutação de (X1 . 6.a.a..d. Xn ) CDS. X2 ).. 7.. (X1 . Qualquer subconjunto de v.. 9.. . Então. . Xn ) será CDS...a. RTDS é RTDS. . ... Seja X = (X1 .. E(ϕ(Xi )|X1 = x1 .a.. Então.9) para cada par de variáveis permanecendo as demais fixas. então ϕ1 (X1 ).. Seja a sequência {Xn .. 5. 0 (3. . xk )... ...d. ϕn (Xn ) será RTDS. (b) Todas as funções de densidade marginais fk (x1 . Xi−1 = xi−1 ) será decrescente em x1 . n ≥ 1} de vetores aleatórios CDS p-dimensionais com f. {Hn . X será CDS. Xn forem v. . Qualquer conjunto de v. RTDS e ϕ1 .. .a. 1 ≤ k < n satisfazendo (3. n ≥ 1} tais que Hn → H fracamente quando n → ∞ onde H é a f... xi−1 para cada função integrável crescente ϕ. . independentes é RTDS. Seja o vetor aleatório (X1 . do vetor aleatório p-dimensional X. . Então. Se X1 . 8...

Yn são RTDS.. ϕl : R → R uma função Borel-mensurável crescente para cada l = 1.) crescente em u e ϕ2 (. Xn > xn ) satisfaça: i. Seja (U. Sejam Z = (Z1 . Xn ) um vetor aleatório tal que F n (x1 ..a. Sejam (a) Seja (X1 . {Hn ..... V ). Então. Então. . Seja a sequência {Xn ... n ≥ 1} tais que Hn → H fracamente quando n → ∞ onde H é a f.. 13. X será RTDS.. n ≥ 1} de vetores aleatórios RTDS p-dimensionais com f. a e b constantes.a.a. . tem-se que Y1 ...d.a.Zn ) um vetor aleatório formado por v.d. (X. do vetor aleatório p-dimensional X.. .. V ). Y ) é RTD onde X = ϕ1 (U. 14. Xn ) um vetor aleatório formado por v. X2 ).a. V ) RTD e seja Z uma v... Definindo ϕ1 e ϕ2 . xn ) = P (X1 > x1 . RTDS.. Definindo Yl = ϕl (Xl ) + Zl . n. . v) crescente em v. .. independente de (X1 .. RTDS sendo X e Z independentes. tem-se que Y é RTD em X. . 11.. . Sejam X = (X1 . . 12..a. Seja X2 v.a..16 10. Z) e Y = ϕ2 (Z. RTD na v. Definindo X = X1 + aZ e Y = X2 + bZ. funções Borel-mensuráveis que mapeiam R2 em R com ϕ1 (u. X1 e seja Z uma v. independente de (U. l = 1..a.. . n. .

.

... . ... . ... . x0 ... x .. x ) F ((x . F (x . x . x . ........ x ) i j n n 1 i n ..

n 1 j .

0 0 0 .

... x ... F n (x1 ..... .. .. xn ) F n ((x1 . .... xn ) i i j . . . x . xj .. .... x .

.

.

.

≤0 .

... 23]: • Exemplo 1: A Distribuição Multinormal com vetor de médias µ = (µ1 ... .... ... Se F k (x1 .10) 0 para cada par de variáveis permanecendo as demais fixas xi < xi e xj < xj . 0 (3. . serão apresentados alguns exemplos relativos à alguns conceitos de dependência apresentados nesta seção [8.. 1 ≤ k < n. (X1 . Então.. . .10) para cada par de variáveis permanecendo as demais fixas. . Xk > xk ). Xn ) será RTDS e qualquer permutação de (X1 . xk ) = P (X1 > x1 . µn ) e matriz de P variância-covariância definida positiva é CDS. verificar (3. ii. Xn ) será RTDS.. A seguir...

.8) é CDS. 1. . NA é NA. Xn ..19.. j ∈ Ai ) ≤ i=1 m Y E[φi (Xj .a. . . forem NA. j ∈ A2 )) ≤ 0 (4.. .. . Se as variáveis aleatórias. . 4....a. independentes é NA. i ∈ A)| i∈A Xi ) seja crescente em i∈A Xi . Vale observar que (4. n}..11) continua válida se ϕ e ψ forem funções decrescentes. A união de conjuntos independentes de v.. NA [23].. se para cada par de subconjuntos disjuntos A1 . Então. NA é NA.. Xn v.6) é CDS e NDS. Xn dado Xi é NA.a.. As variáveis aleatórias X1 . 1..... A seguir. n} e φ..4 Variáveis Aleatórias Negativamente Associadas Definição 1. então: E "m Y # φi (Xj . Um conjunto de v. 6. Xn possuem associação negativa (“negative association”). i ∈ A1 ).a. Sejam X1 .. . para cada função crescente φ e para cada subconjunto apropriado A de índices {1. Am subconjuntos disjuntos de índices {1. . denotada por NA.11) sempre que ϕ e ψ forem funções crescentes [23]. n} tem-se Cov(ϕ(Xi . quase certamente. • Exemplo 3: A Distribuição de Dirichlet dada por (2.a.. A2 de {1. φm funções crescentes e positivas.. a distribuição condicional de P X1 . Sejam A1 ... . Funções crescentes definidas em subconjuntos disjuntos de um conjunto de v. ψ(Xj .a... 5... 3. serão apresentadas algumas propriedades referentes ao conceito de v. independentes e suponha que a esperança condicional P P E(φ(Xi .. Um subconjunto de duas ou mais v. j ∈ Ai )] i=1 2. NA são NA. X1 .17 • Exemplo 2: A Distribuição Multinomial dada por (2.

X1 .. . • Exemplo 1: Seja x = (x1 . .. • Exemplo 6: A Distribuição de Dirichlet dada por (2. n) ≤ P (Xi ≤ xi .. .. i ∈ Ai )P (Xj > xj . .. em particular.. independentes possuindo funções densidade P F2 . Xn v.7) é NA.6) é NA. j ∈ A2 ).8) é NA. . i = 1. Xn ) que assume os valores de todas a n! permutações de x com igual probabilidade.. n} e x1 . P (Xi ≤ xi .. n. Então. Xn são NOD.... j ∈ A2 ) e P (Xi > xi . Então.. . .. sendo cada probabilidade igual à 1 n! . n) ≤ P (Xi > xi . i ∈ Ai )P (Xj ≤ xj .. .a. • Exemplo 4: Seja X = (X1 ... Como R = (R1 .. A2 forem subconjuntos disjuntos de índices {1.. A seguir serão apresentados alguns exemplos de distribuições NA [23]..... a distribuição P condicional conjunta de X1 . Rn ) possui distribuição de permutação. Temos que uma distribuição de permutação é NA. • Exemplo 3: A Distribuição Hipergeométrica Multivariada dada por (2. Xn dado Xi é NA.. i = 1.18 7. Uma distribuição de permutação é a distribuição conjunta do vetor X = (X1 . . Seja Ri o posto de Xi ... i = 1. tem-se que R será NA.. . xn ∈ R. • Exemplo 5: Variáveis aleatórias que possuem distribuições normais negativamente correlacionadas são NA.. Então.. .... Uma consequência da propriedade 1 é a dada a seguir: Se A1 . Sejam X1 . • Exemplo 2: A Distribuição Multinomial dada por (2. quase certamente... Xn ) uma amostra aleatória de uma população. . . xn ) um conjunto de n números reais. n > 1...

Teorema 1. observa-se que a dependência T P2 é uma dependência forte pois esta implica nas dependências SI.2. Relações para o caso multivariado: (a) um subvetor aleatório de um vetor aleatório associado é associado. Demonstração: Para a demonstração consulte [25]. Demonstração: Para a demonstração consulte [25]. . (b) associação ⇒ PUOD e PLOD. Relações para o caso bivariado: (a) densidade T P2 ⇒ SI ⇒ LTD. Todos os tipos de dependências.3.a. RTI. são invariantes com respeito às transformações estritamente crescentes sobre as componentes do vetor aleatório. . (d) f. definidos nas seções anteriores. RTI.a. (b) LTD ou RTI ⇒ associação ⇒ PQD. T P2 e função de sobrevivência T P2 . (c) densidade T P2 ⇒ f. associação e PQD entre v. A dependência mais fraca é a PQD.d.4.a T P2 ⇒ LTD e função de sobrevivência T P2 ⇒ RTI.19 1. Pelo teorema anterior. Teorema 1.5 Implicações e Contra-exemplos envolvendo os Conceitos de Dependência Teorema 1. LTD.d.

NLOD implica em v. . 0) sendo que cada valor assume a probabilidade 1/4. serão dadas outras implicações entre os conceitos de dependência: 1. 1. 5. Um par de v. 2. X2 ) for SD. RTIS implica em PUOD [8]. 1. Então. (1. NA é NOD [23]. 1). X2 e X3 assumindo valores (0. NA [23] No contra-exemplo seguinte.a. (1. X4 ) será NOD mas não será NA. RTDS equivale à NUOD [8]. Porém.20 (c) PDS ⇒ PUOD e PLOD. Se (X1 . 0. X2 > 0.6 são mostradas as tabelas utilizadas em alguns contra-exemplos. 1). X3 . NQD é NA [23]. NUOD e NLOD não se equivalem [23] Sejam as v. Demonstração: Para a demonstração consulte [25].a. X = (X1 . Na seção 1. Na sequência. (d) CIS ⇒ associação. P (X1 > 0. X3 ≤ 0) = 1 1 > = P (X1 ≤ 0)P (X2 ≤ 0)P (X3 ≤ 0). X1 . NUOD e nem v. 4 8 • Contra-Exemplo 2: Nem v. 4. 0. 0) e (0. X3 > 0) = 0 < 1 = P (X1 > 0)P (X2 > 0)P (X3 > 0) 8 mas P (X1 ≤ 0. ele será também RTD. • Contra-Exemplo 1: Para n ≥ 3. LTIS não implica em NUOD [8]. X2 .a. A seguir. 3. X2 ≤ 0. serão dados exemplos de implicações que não são válidas. LTI equivale à NQD.a. Um par de v.a. para n ≥ 3. 6.a.

X2 ) e (X3 . tendo função de probabilidade conjunta dada pela Tabela 6. Como P (Y > 0|X ≥ 0) = 3 10 . P (Y = 1|X > 1) = 0.1. • Contra-Exemplo 4: LTI não equivale à RTD [8] Para mostrar que LTI não implica em RTD.3. X4 ) é dada pela Tabela 6. • Contra-Exemplo 3: RTD não implica em LTI [8] Sejam (X. (X. assim.a. 4) > P (X1 = X2 = 1)P (X3 = X4 = 1) viola o conceito NA. Y não é LTI em X. P (Y = 0|X ≤ 1) = 12 . X2 . i = 1. i = 1. Y não é RTD em X..2. Y ) duas v. X4 ) onde cada v. P (Y = 0|X ≤ 2) = P (Y = 0|X ≤ 3) = 3 5 3 5 e tem-se que Y é LTI em X. Y ) é LTI e a sequência (X. a partir do exemplo supra-citado..a. P (Xi = 1.a.. X3 . Como P (Y = 0|X ≤ 0) = 52 .3. . A função de probabilidade conjunta de (X1 ..21 Seja o vetor aleatório X = (X1 . Porém.a. Porém. Z) é LTIS. Y e Z tais que Z condicionado em X ≤ x e Y ≤ y. Pode-se verificar que todas as condições NLOD e NUOD são válidas. X3 . 4. 30 < 0. tendo distribuição conjunta de probabilidade dada pela Tabela 6.12) é crescente em x e y e. Xi possui Distribuição de Bernoulli com P (Xi = 1) = 0.12) com z > 0. 40 = P (Y = 1|X > 2) e. X2 . P (Y = 0|X ≤ 0) = 3 5 > 5 9 = P (Y = 0|X ≤ 1) e. P (Y > 0|X ≥ 1) = 44 165 .a. LTIS não equivale à NUOD [8] Considere as v. assim. possui função densidade P (Z ≤ z|X ≤ x. 5. Porém. As v. . X4 ) possuindo a mesma distribuição bivariada. Y. P (Y > 0|X ≥ 2) = 30 165 e P (Y > 0|X ≥ 3) = 0 tem-se que Y é RTD em X.. X e Y possuem função de distribuição conjunta dada pela Tabela 6. Y ≤ y) = 1 − exp{−z(x + y)} (5. X. Considere os pares (X1 . • Contra-Exemplo 5: Para n ≥ 3. considere (X. Y ) duas v. . Desde que lado direito de (5..

P (X2 > 2|X1 = 0) = 31 . 45e−4 > 0. X2 = x2 ) = exp{−x2 x} ↓ x2 tem-se que (X1 . P (A) > 0 e P (B) > 0. 35e−6 +0.a. Por outro lado. Z > 2) = e−8 −1. X2 = 2) = 2  1 −3x e + e−2x 2 enquanto que P (X3 > x|X1 > 1. X2 . considere X1 .22 Porém. X1 e X2 possuem função de probabilidade conjunta dada pela Tabela 6. X3 ) é CDS. obtém-se P (X3 > x|X1 > 0. 1e−8 = P (X > 2)P (Y > 0)P (Z > 2). . Y > 0. P (X2 > 1|X1 = 1) = 31 .X2 (x3 |x1 . As v. X2 = 2) = e−2x . como P (X3 > x|X1 = x1 . x2 ) = x2 e−x2 x3 com x3 > 0. X2 e X3 v. desde que P (Z ≤ z|X ≤ x) = 1 − exp{−z(x + 1)} e P (Z ≤ z|Y ≤ y) = 1 − exp{−z(y + 3)} segue que P (X > 2. P (X2 > 2|X1 = 1) = 1 3 e P (X2 > 2|X1 = 2) = 0 tem-se que X2 é SD em X1 . tais que fX3 |X1 . • Contra-Exemplo 6: CDS não implica em RTDS [8] Para mostrar que CDS não implica em RTDS. X2 = 3) + P (X3 > x|X1 = 2. Além disso.4. X2 > 1) = P (X3 > x|X1 = 2. Como P (X2 > 1|X1 = 0) = 1. X2 > 1) = = 1 P (X3 > x|X1 = 1. utilizando-se a identidade P (C|A ∪ B) = P (C|A) P (B) P (A) + P (C|B) P (A) + P (B) P (A) + P (B) quando P (A ∩ B) = 0. P (X2 > 1|X1 = 2) = 14 .a.

Considere o vetor aleatório induzido Y = (Y1 . p2 e p3 estritamente positivas e X1 + X2 + X3 = 3. Y2 ) onde Y1 = X1 X2 e Y2 = X3 .23 Como P (X3 > x|X1 > 1. Pela função de probabilidade conjunta g de (Y1 . CDS ou NDS [23] No contra-exemplo seguinte. X2 . • Contra-Exemplo 7: NA não implica em RR2 aos pares. nem CDS e nem NDS. Seja X = (X1 . 28]. Será mostrado que a função de probabilidade conjunta g não é nem RR2 . X2 > 1) > P (X3 > x|X1 > 0. A Distribuição Multinomial é RR2 aos pares. Y2 ) obtém-se que .5. X2 . CDS e NDS [2. X2 > 1). A função de probabilidade conjunta de (Y1 . ∀x > 0 tem-se que (X1 . X3 ) não é RTDS. CDS ou NDS. Y2 ) será denotada por g e é dada pela Tabela 6. X3 ) um vetor aleatório possuindo uma função de probabilidade multinomial trivariada f com probabilidades p1 . será mostrado que Y é NA mas não é RR2 aos pares.

.

1) . 0) g(0. g(0.

P (x) = .

.

1) . g(1. 0) g(1.

.

.

.

>0 .

citadas anteriormente. CDS ou NDS. para um vetor bivariado. NA não implica em RR2 aos pares. Então.4. que CIS não implica RTIS [8]. Portanto. CDS equivale à NDS. respectivamente. segue que Y não é NDS. conclui-se que g não é RR2 . tem-se. conclui-se. que não são válidas.6 Tabelas referentes ao Capítulo . RTIS não implica CIS [8]. Notando que P (Y2 > 0|Y1 = 0) = 1 − P (Y2 = 0|Y1 = 0) < 1 enquanto que P (Y2 > 0|Y1 = 1) = 1 − P (Y2 = 0|Y1 = 1) = 1. Pelas propriedades 7 e 4 da seção 1. conclui-se que Y não é CDS. Além das implicações. que X é NA e Y é NA. 1. também. CDS ou NDS já que Y é NA mas não é RR2 . Como.

20 0.2: Função de probabilidade conjunta de X e Y Y /X 0 1 2 3 0 0.4: Função de probabilidade conjunta de X e Y Y /X 0 1 2 1 0 0.10 0. X3 .10 0.05 0.10 0.10 0.0677 0.0623 0.0623 0.1) 0.15 1 0.0577 Tabela 6.20 0 0.20 0.0577 0.0623 0.10 0 Tabela 6.0677 0.10 3 0.20 0.0) 0.15 0.0) 0.10 0 .10 Tabela 6.30 2 0.24 Tabela 6.0) (1.1) (0.0623 0.10 0.10 0.1) (1.0677 0.0623 0.25 1 0.0677 0.3: Função de probabilidade conjunta de X e Y Y /X 0 1 2 3 0 0.0577 (0.0623 (1.15 0.0) (0.1) 0.0577 0.1: Função de probabilidade conjunta de (X1 .0623 0.0623 (1. X4 ) Y /X (0. X2 .15 0.

1) f (1. 1) + f (2. Y2 ) Y /X 0 1 2 0 f (0. 2) + f (1. 0.25 Tabela 6. 1. 3.5: Função de probabilidade conjunta de (Y1 . 2) 0 0 3 f (0. 3) 0 0 . 2. 2. 1) 0 2 f (0. 0) + f (3. 1. 1. 0) 0 f (1. 0) + f (2. 0. 0) 1 f (0. 0. 0.

26 .

hoje em dia um dos primeiros temas a ser levado em consideração é a recente teoria de cópulas discutida por Joe [25] e Nelsen [31]. cópulas são usadas na classificação de crédito e modelagem de risco [3. Em ciências autuárias cópulas são usadas na modelagem de mortalidade e perdas [13. e por conta da vasta gama de estruturas que podem ser modeladas por esta distribuição. 7]. seu único parâmetro de dependência. 15]. tem havido um interesse crescente nesta abordagem. cópulas são utilizadas no controle de processo multivariado e modelagem hidrológica [16]. Quando se fala em modelagem de dependência. 9. Esta teoria se torna atrativa devido às cópulas abrangerem um grande leque de estruturas de dependência e conseguirem modelar completamente a estrutura de dependência dos dados. Em finanças. 14.Capítulo 2 Teoria de Cópulas 2. Em estudos biomédicos. cópulas são utilizadas na modelagem de eventos correlacionados e riscos competitivos [37]. Cópulas tornaram-se uma ferramenta popular de modelagem multivariada em muitos domínios onde a dependência multivariada é de interesse e o uso da habitual normalidade multivariada está em questão. A modelagem através da distribuição normal é amplamente utilizada por sua simplicidade analítica e fácil estimação da matriz de correlação. Em engenharia. Porém algumas 27 .1 Introdução Desde que Joe (1997) [25] e Nelsen (1999) [31] pela primeira vez introduziram o conceito de cópulas para uso em modelagem padrão.

. 1). . restringindo-se apenas ao intervalo [0. . ud ) ∈ Id e combinado com o fato de que qualquer v. . 1]. .a. . com cópulas pode-se trabalhar a estrutura de dependência em um contexto multivariado. . . . . Desta maneira a utilização da equação (1. de simetria e curtose. não só nas marginais. . Seja H uma f. já que a cópula contém toda informação de dependência entre as variáveis X e Y . 1). com distribuição U (0. Evidências empíricas sugerem que no comportamento destes mercados verificam-se eventos extremos mais prováveis que os previstos pela distribuição normal. . em um contexto multivariado. A cópula é uma distribuição multivariada cujas marginais são U (0. .1) possibilita trabalhar com a estrutura de dependência de (X. Fd .d. . . H(x1 . cópulas podem ser usadas para fornecer uma estrutura de dependência multivariada separadamente das distribuições marginais. . . de X = (X1 . . . .28 de suas característica. al. . o principal é a característica de pequena probabilidade em eventos extremos conjuntos. Ud ) ∈ Id com cópula d-dimensional C. há muitos obstáculos à suposição de normalidade. xd ) = C(F1 (x1 ). Y ) de forma livre de medida de escala e locação. limitam sua utilização. Y ) também é conhecida como função dependência. . (u1 . [10] mostram. temos C(u1 . .a. contínua pode ser transformada por sua acumulada para uma v. ud ) = P (U1 ≤ u1 . Sklar [36] mostrou que existe uma cópula C d-dimensional tal que para todo xi ∈ Dom Fi . . Neste contexto. por uma questão de exemplificação trabalha-se em um contexto bivariado.a. . . . a modelagem através das cópulas torna-se atraente devido a sua maior variedade de estruturas de dependência.1) Como visto. mas também em dimensões superiores. . Ud ≤ ud ). apresentando todos os resultados para esta dimensão. Xd ) com marginais F1 . Seja o vetor aleatório U = (U1 . por exemplo. . Como Embrechts et. . . . A característica da informação de dependência que a cópula contém pode ser vista através do seguinte exemplo. . Para os mercados de crédito e financeiro. A função cópula C associada ao vetor aleatório (X. Também não há impedimento para se trabalhar com o Kendall Plot. Fd (xd )) (1. objeto central da tese. porém esta dissertação trata apenas do contexto bidimensional.

.d. x2 ] × [y1 .. . Mostra-se que a cópula evidencia a verdadeira independência existente entre X e Y e como a forma das marginais pode produzir uma falsa impressão de dependência.1. Como a cópula é uma função de (U1 . Uma função H bidimensional é bicrescente se VH (B) ≥ 0. Exemplo 2. .29 Exemplo 2.a. . Esta ordem é evidenciada através do Gráfico de Dispersão dos valores uniformizados F1 (x) e F2 (y). y2 ) + H(x1 . observa-se que quando se tem valores observados de duas v. . y). logo H é bicrescente. sendo que a ordem da amostra é algo inerente à esta função. Uma função pode ser bicrescente e decrescente em alguns de seus argumentos.1. .1 vê-se que não fica evidente a independência entre essas variáveis. n. 1/2).2. . Porém. . as amostras transformadas pelas respectivas acumuladas F1 e F2 .1.2 Cópula e Teorema de Sklar ¯ função H : S1 × S2 → R e o retângulo Definição 2.. com VH (B) dado pela Definição 2.a. y1 ) (2. H não é bicrescente. . 1/2) e função decrescente de y para cada x ∈ (0. Note que VH (B) pode ser reescrito como VH (B) = (y2 − y1 )(4x2 − 4x1 ) ≥ 0. . y) = max(x. ∀B. X e Y pois considera-se a f. Un ) onde Ui = Fi (Xi ). X e Y . Sejam S1 e S2 subconjuntos não vazios de R.. 2. j = 1. Exemplo 2. ao plotar (F1 (xi ). x100 ) e (y1 . pois x1 ≤ x2 e y1 ≤ y2 no retângulo B. Seja H : I2 → I definida por H(x. y1 ) − H(x1 . y2 ].2) Definição 2. B = [x1 . y2 ) + H(x2 .. Porém H é uma função decrescente de x para cada y ∈ (0. i = 1.. Sejam (x1 . Define-se H-volume de B como VH (B) = H(x2 . Seja H : I2 → I definida por H(x.3. y) = (2x − 1)(2y − 1).a. de cada v. (xi .a. Observando o scatterplot de X e Y na Figura 2. 2. a cópula modela a ordem dos valores observados das v. F2 (yi )). temos VH (I2 ) = −1. São geradas duas amostras. de forma independente. ou seja. Visto que a cópula é a distribuição conjunta entre F1 (X) e F2 (Y ).2. fica evidente a independência entre X e Y . yi ) ∈ Dom H com i. Uma função não decrescente marginalmente pode não ser bicrescente. . y100 ) pseudo observações independentes com distribuição F1 (x) = 1 − exp(−2x) e F2 (y) = 1 − exp(−10y) respectivamente.

1: Scatterplots: Dados exponenciais independentes (primeira figura). dados exponenciais independentes transformados pelas acumuladas (segunda figura). .30 Figura 2.

Sejam S1 = S2 = {0. y2 ) + M (x1 . É trivial mostrar que a função M (u. y2 ]. 0) = C 0 (0. a1 ) = 0 = H(a1 . y1 e y2 ∈ I.5.1. A função C 0 : S1 × S2 7−→ R definida por C 0 (0. Uma aplicação H : S1 × S2 → R é aplanada se H(x.31 Definição 2. 2. Definição 2. As funções W. 1) = C 0 (1. y1 ) − M (x1 . Uma cópula é uma subcopula cujo domíno é I2 . Uma subcopula bidimensional C 0 é marginalmente não decrescente. os próximos conceitos são apresentados para subcopulas. C 0 é marginalmente uniforme. Teorema 2. v) = v (2. v) = min(u.5. y) ∈ S1 × S2 . para o caso y2 ≥ x2 ≥ x1 e x1 ≤ y1 ≤ x2 e desta maneira VM (B) = M (x2 . onde ai = min{z : z ∈ Si }. 0) e M (u. 3. Definição 2. Para verificar que esta função é bicrescente. v) são exemplos particulares de cópulas denotadas respectivamente por M e W . . M : I2 → I dadas por W (u. x2 . x1 . 1) = 1 é a mais simples subcopula. A cópula W pertence a classe das cópulas Arquimedianas e será vista na próxima seção. Dom C 0 = S1 × S2 . v) = max(u + v − 1. y). para todo u ∈ S1 e v ∈ S2 .4. C 0 (u. 1) = u e C 0 (1. v) é aplanada e marginalmente uniforme.3. Uma subcopula é uma função C 0 com as seguintes propriedades: 1. y2 ) − M (x2 . C 0 é aplanada e bicrescente. x2 ] × [y1 .4. Como toda cópula é uma subcopula. 1}. 0) = 0 e C 0 (1. logo válidos paracópulass. y1 ) = x2 − y1 ≥ 0 Para os demais casos a demonstração é análoga. considere o retângulo B = [x1 .3) Exemplo 2. ∀(x. onde S1 e S2 são subconjuntos de I contendo 0 e 1. Exemplo 2. ou seja.

v) − u − v ≥ 0 (2. seja x1 = y1 = 0 nas aplicações T e T ∗ .32 Demonstração. Teorema 2. v) ≤ C 0 (1. Consideremos T (t) = C 0 (t. logo a aplicação é não decrescente. v) − C 0 (u. v) Como C 0 também é bicrescente. Primeiro. os limites na equação (2. temos T (t2 )−T (t1 ) ≥ 0. x1 . provemos que a aplicação t → C 0 (t. segue que C 0 é marginalmente não decrescente. t2 ] × [y2 .6). v) (2. y1 ). v) ≤ C(u. W (u. A ligação entre funções distribuição multivariada e suas marginais univariadas é feita pelo Teorema de Sklar apresentado a seguir. v) ≥ max(u + v − 1. a cópula M é nomeada por limite superior de Frechét e a cópula W por limite inferior de Frechét. 1) − C 0 (1. Seja C 0 uma subcopula.5. 1] × [v. Analogamente verifica-se que a aplicação T ∗ (t) = C 0 (x2 . . y1 ). y1 ) − C 0 (t1 . como C 0 é aplanda. x2 ∈ I.2. marginalmente uniforme e não decrescente temos 0 = C 0 (0.5) Logo. 1) = u (2. Então para toda cópula C e para todo (u. Então para todo (u. v) = v e 0 = C 0 (u.5) e (2. então VC0 (B) ≥ 0. ti ∈ I. max(u + v − 1. Como C 0 é aplanada. y1 ≤ y2 é não decrescente. Agora. 0). v) ≤ M (u. y2 ∈ I. v) ≤ min(u. y2 ) − C 0 (t2 . v) ≤ C 0 (u. C 0 (u. v) (2.7) A desigualdade (2.6) Portanto pelas equações (2. t) − C 0 (x1 . y2 ) + C 0 (t1 . 1] temos VC 0 (B) = C 0 (1. y2 )−C 0 (t. y1 ) = VC0 (B) onde B = [t1 .4) são as cópulas M e W . v) ∈ Dom C 0 . v) ∈ I2 . por meio das cópulas. temos C 0 (u. se t1 ≤ t2 .4) Demonstração. x1 ≤ x2 é não decrescente. O nome cópula foi escolhido para enfatizar a maneira como a cópula une uma função distribuição conjunta às suas marginais univariadas. pois T (t2 ) − T (t1 ) = C 0 (t2 . 0) ≤ C 0 (u.7) é denominada desigualdade dos limites de Frechét. y2 ) − C 0 (t. Sendo B = [u. y1 . 0) ≤ C 0 (u. v) ≤ min(u. então VC 0 (B) ≥ 0. 1) + C 0 (u. v) ≤ C 0 (u. t). Conforme Exemplo 2. y1 ]. Como C 0 é bicrescente. v) = 1 + C 0 (u.

y ∈ R.8) Se F e G são contínuas. Então existe uma única subcopula C 0 tal que 1. então C é única. x2 ∈ S1 . y) = C(F (x). H(x. ¯ H(x. Seja H uma função distribuição conjunta com marginais F e G.1 e 2. y1 )| ≤ |G(y2 ) − G(y1 )|. |H(x1 . G(y)) (2. Lema 2. (x2 . Demonstração. y2 ∈ S2 . Seja H uma função distribuição conjunta com marginais F e G. y2 ) ≤ F (x2 ) − F (x1 ) por H ser marginalmente decrescente. logo |H(x2 . y2 ) ∈ Dom H. Então existe uma ¯ cópula C tal que para todo x. y2 ) − H(x1 . y2 )| + |H(x1 . y2 ) − H(x1 . |H(x2 .a.3. se C é uma cópula e F e G são f. y2 )| ≤ |F (x2 ) − F (x1 )|. G(y)) → H(x. y1 )| ≤ |F (x2 ) − F (x1 )| + |G(y2 ) − G(y1 )| (2. y2 ) − H(x1 . y1 )| Considere x1 ≤ x2 . então a função H definida pela equação (2. C é unicamente determinada em Im(F ) × Im(G). y) = G(y). então H(x1 . y) = C 0 (F (x). ∞) = F (x) e H(∞. G(y)) 2.2 apresentados a seguir. aplanada. H(x. Pela desigualdade triangular. y1 )| ≤ |H(x2 . então 0 ≤ H(x2 . y1 ) = H(x2 . y2 ) − H(x1 . Demonstração. y ∈ R. Dom C 0 = Im(F ) × Im(G). y1 ). G(y)). temos |H(x2 . y2 ) − H(x1 . y) .9) Desta forma. Inversamente. Portanto segue que para qualquer x1 . Similarmente para qualquer y1 .1. y2 ) e consequentemente o conjunto de pares {(F (x). y2 ) − H(x1 .33 Teorema 2. A prova segue dos lemas 2. H(x. y)} permite definir uma função C0 (F (x). Uma desigualdade análoga é válida quando x2 ≤ x1 . Sejam (x1 . caso contrário.d.8) é uma função distribuição conjunta com marginais F e G.. Como H é uma função distribuição conjunta. segue que se F (x1 ) = F (x2 ) e G(y1 ) = G(y2 ). ∀x. y2 ) − H(x1 .

1. |C 0 (u2 . v2 ) − C 0 (u1 . com domínio em S¯1 × S¯2 . Lema 2. ∞) = F (x) = u C 0 (u. ou seja. seja (a. isto é. b1 ) + (1 − λ1 )µ1 C 00 (a1 . defina b1 = b2 = b. A prova que a função C 0 é uma subcopula segue diretamente das propriedades da distribuição conjunta H [22]. se a1 = a2 ( µ1 = (a − a1 )/(a2 − a1 ). (2. Então existe uma cópula C tal que C(u. v). −∞) = 0 Como H é bicrescente por definição. Desta maneira. então x∈R C 0 (u. se b1 = b2 e define-se C(a. defina a1 = a2 = a. Seja C 0 uma subcopula.2. respectivamente. ainda subcopula. e sejam a1 e a2 . Da equação (2. b2 ). o menor e o maior elemento de S¯1 que satisfaça a1 ≤ a ≤ a2 . O próximo passo é estender a subcopula C 00 a uma função C com domínio em I2 . onde S¯1 é o fecho de S1 e S¯2 é o fecho de S2 . respectivamente. concluímos que C 0 é uniformemente contínua em seu domínio Im(F ) × Im(G).10) . ∀(u. Para cada u ∈ Im(F ). b1 ) + λ1 µ1 C 00 (a2 . 1) = C 0 (F (x).9) e usando o item 2. Demonstração. Para este fim. v) = C 0 (u. qualquer subcopula pode ser extendida a umacópulaa. A extensão é geralmente não única. sejam ( λ1 = 1.34 sendo C 0 única com domínio Im(F ) × Im(G). v) ∈ Dom C 0 . b) ∈ I2 . logo C 0 é bicrescente. Da continuidade de C 0 podemos estender C 0 a uma função C 00 . o menor e o maior elemento de S¯2 que satisfaça b1 ≤ b ≤ b2 . G(−∞)) = H(x. 0) = C 0 (F (x). v1 )| ≤ |u2 − u1 | + |v2 − v1 | Denotemos Im(F ) por S1 e Im(G) por S2 . b2 ) + λ1 (1 − µ1 )C 00 (a2 . b) = (1 − λ1 )(1 − µ1 )C 00 (a1 . se a1 < a2 (b − b1 )/(b2 − b1 ). Se a ∈ S¯1 . do Lema 2. e sejam b1 e b2 . se b1 < b2 1. G(∞)) = H(x. e se b ∈ S¯2 . existe um ¯ tal que F (x) = u.

5. logo é não negativa.35 É trivial que Dom C = I2 e que C(a. λ2 . d]) = (λ2 − λ1 )(µ2 − µ1 )VC ([a1 . b) = C 00 (a. a2 . Diversos casos são considerados para esta prova. c2 ] × [b1 . temos VC (B) = VC ([a. d2 . µ2 relacionados a c e d assim como a1 . para C ser uma cópula falta provar que C é bicrescente. e pelo menos um ponto está em S¯2 estritamente entre b e d. µ1 são relacionados a a e b. c1 ] × [d1 . b) e C(c. b). d2 ]) + λ2 µ2 VC ([c1 . d) outro ponto em I2 tal que c ≥ a e d ≥ b. c2 . a2 ] × [b1 . b) da equação (2. ∀(a. então temos c1 = a1 . d1 ]) + λ2 VC ([c1 . Seja F uma função distribuição acumulada. substituindo a equação (2. c2 ] × [b2 . C(c. b2 ]) + (1 − µ1 )VC ([a2 . Substituindo a equação (2.10) é bilinear em (a. Como λ1 e µ1 são lineares em a e b. O mais simples dos casos é aquele em que não existe ponto em S¯1 estritamente entre a e c e não há ponto em S¯2 estritamente entre b e d. a2 ] × [b1 . c2 ] × [d1 . d) na expressão dada pela equação (2. b2 .10) e os termos correspondentes para C(a. d). c2 = a2 . d1 = b1 e d2 = b2 . C(c. representadas por C-volumes. λ1 . a2 ] × [b2 . c1 ] × [b1 . e sejam c1 . que completam a prova. d1 ]) + (1 − λ1 )(1 − µ1 )VC ([a1 . Antes de apresentar o próximo resultado é necessária a definição de quasi-inversa. pois c ≥ a e d ≥ b implica λ2 ≥ λ1 e µ2 ≥ µ1 .2) para VC (B) e reordenando os termos temos VC (B) = (1 − λ1 )µ2 VC ([a1 . d). Conforme Definição 2. O lado direito da expressão acima é a soma de combinações de nove quantidades não negativas. Seja (c. Outro caso de interesse é quando pelo menos um ponto está em S¯1 estritamente entre a e c. b2 ]). b) propriedade que permite demonstrar que C é aplanada e marginalmente uniforme. então a < a2 ≤ c1 < c e b < b2 ≤ d1 < d. Os casos remanescentes são similares. b) e C(c. Definição 2. Então a quasi-inversa de F é qualquer função F (−1) com domínio em I tal que . b2 ]) + λ2 (1 − µ1 )VC ([c1 . c1 ] × [b2 . d1 ]) + VC ([a2 . d]. a2 ] × [d1 .6. d2 ]) + µ2 VC ([a2 . b2 ]). d1 . Deve-se provar que VC (B) ≥ 0 para o retângulo B = [a. c] × [b. de que segue que VC (B) ≥ 0 neste caso. d) na expressão dada pela equação (2. b) ∈ Dom C 00 . Para este caso. c]×[b.2) para VC (B). a forma C(a. b1 . d2 ]) + (1 − λ1 )VC ([a1 .10) e os termos correspondentes para C(a. com coeficientes não negativos.

− log(1 − v). v) ∈ Dom C 0 . ∀t ∈ Im(F ). 1).12) com marginais F (x) = 1 − exp(−2x) e G(y) = 1 − exp(−y). então F (−1) (t) = inf{x|F (x) ≥ t} = sup{x|F (x) ≤ t}.1. Logo.36 1. Sejam H. v) = H(F (−1) (u). Um método para construção de cópulas é resultante do último corolário. V com distribuição U (0. G(−1) (v)) = F {F (−1) (u)}G{G(−1) (v)} = [1 − e−2 log(1−u)/2 ][1 − e− log(1−v) ] = uv . c. V ) com marginais U (0. Seja H a distribuição da independência H(x. Se t ∈ Im(F ). c. a cópula associada a H é dada por C(u. Deste modo a cópula C é distribuição conjunta do vetor aleatório (U. v) = H(F (−1) (u).3 se u = F (x) e v = G(y).c.11) Sejam x ∈ Dom(F ) e y ∈ Dom(G) conforme Teorema 2. G(−1) (v)) (2. Se t ∈ / Im(F ). então x = F (−1) (u) e y = G(−1) (v).6.1.c. se x≥0 0. 1) onde U = F (X) e V = G(Y ). C 0 (u. − log(1−u) 2 se x≥0 0. 2. ou seja.1 é válido para cópulas e temos U. Exemplo 2. F (F (−1) (t)) = t. G e C 0 como no Lema 2. onde as respectivas quasi-inversas são dada por ( F (−1) (u) = ( G (−1) (v) = . Corolário 2. y) = F (x)G(y) (2. então F (−1) (t) = x com x ∈ R tal que F (x) = t. e sejam F (−1) e G(−1) as quasi-inversas de F e G. Então para qualquer (u. respectivamente. F. Quando F e G são contínuas o Corolário 2.

Sua estrutura caracteriza a independência entre as v.6).a. então Cα(X). . G1 . Quando pelo menos uma função.Y . F e G são contínuas. Sejam F1 . respecti¯ vamente. Se α é estritamente crescente e β é estritamente decrescente. logo segue que Cα(X). Cα(X). a estrutura de dependência entre as v. pois C(u.12). 1. contínuas com cópula CX. então Cα(X).a. Teorema 2. X e Y independe de suas marginais. β(Y ) ≤ y] = P [X ≤ α−1 (x).a.a. α(X) e β(Y ).Y e α e β funções estritamente monótonas na Im(X) e Im(Y ) resprectivamente. ou são alteradas de modo previsível como visto nos próximos dois resultados. G2 (y)) = P [α(X) ≤ x. 1 − v).Y em I2 . Sejam X e Y v. para qualquer x. contínuas com cópula CX. G1 (β −1 (y))) = CX. a cópula das v. Y. α(X) e β(Y ) é uma simples transformação de CX. Se α e β são funções estritamente crescentes na Im(X) e Im(Y ) respectivamente. y ∈ R. G2 (y)) Desde que X e Y são contínuas. as cópulas são invariantes.d.β(Y ) = CX.Y (u. G(−1) (v)) = F {F (−1) (u)}G{G(−1) (v)} = uv pela definição de quasi-inversa (Definição 2. Note que se a conjunta H é definida pela equação (2. a.4. Y v. X e Y quando as f. Sejam X. Teorema 2. v) = u − CX. Y ≤ β −1 (y)] = CX.Y (F1 (α−1 (x)). Assim. Demonstração. v) = H(F (−1) (u). Im(F2 ) = Im(G2 ) = I.37 Esta cópula recebe a notação especial Π e é denominada cópula produto. é estritamente decrescente.Y (F2 (x).a. F2 e G2 as respectivas distribuições de X.β(Y ) = CX.β(Y ) (u.Y .β(Y ) (F2 (x). u. α ou β.a.Y . Muito da utilidade de cópulas no estudo de estatísticas não paramétricas deriva do fato que sob transformações monótonas estritas de v. v ∈ I.5.

8) Cα(X).Y (1 − u.a.a.14) e G2 (y) = P (β(Y ) ≤ y) = P (Y ≥ β −1 (y)) = 1 − G1 (β −1 (y)) ⇒ G1 (β −1 (y)) = 1 − G2 (y) (2.14) e (2. Y ≥ β −1 (y)) (2. F2 e G2 as distribuições de X. 1 − v) onde a segunda igualdade se refere às equações (2. Sejam F1 .15) temos P (X ≤ α−1 (x). então Cα(X).β(Y ) (u. Se α e β ambas são estritamente decrescentes.38 2.16) .β(Y ) (F2 (x). v) = v − CX. u. 3. Demonstração item 1.β(Y ) (u. v ∈ I. G2 (y)) = P (α(X) ≤ x.Y (F2 (x). 1 − v).: (2.15). α(X) e β(Y ) respectivamente. (2. G1 (β −1 (y))) = CX. v). então Cα(X). Y ≤ β −1 (y)) + P (X ≤ α−1 (x).Y (u.Y (1 − u.Y (F1 (α−1 (x)). α(X) ser contínua) e v = G2 (y) para algum y ∈ Im(G2 ) = I (devido a v. Y. v) = u + v − 1 + CX. Demonstração. u.β(Y ) (u. v) = Cα(X).13) Como. v ∈ I. Y ≤ β −1 (y)) = CX. Se α é estritamente decrescente e β é estritamente crescente. F2 (x) = P (α(X) ≤ x) = P (X ≤ α−1 (x)) = F1 (α−1 (x)) = P (X ≤ α−1 (x). Tomemos u ∈ Im(F2 ) e v ∈ Im(G2 ) tais que u = F2 (x) para algum x ∈ Im(F2 ) = I (devido a v. β(Y ) ≤ y) = P (X ≤ α−1 (x). Y ≥ β −1 (y)) (2. β(X) ser contínua). 1 − G2 (y)) = CX. G1 .

Cα(X). Y ≥ β −1 (y)) + CX.: (2. substituindo a equação (2. G2 (y)) = P (α(X) ≤ x. 1 − v) ⇒ P (X ≤ α−1 (x). se completa a prova. analogamente G1 (β −1 (y)) = 1 − G2 (y) (2.: análoga a demonstração item 1. mas sem o nome Arquimediana. Y ≤ β −1 (y))] = 1 − F1 (α−1 (x)) − G1 (β −1 (y)) + P (X ≤ α−1 (x). Cópulas Arquimedianas também são mencionadas por Schweizer and Sklar (1983) [34]. 1 − v) (2. 1 − v) 2.Y (u. temos F1 (α−1 (x)) = 1 − P (X ≥ α−1 (x)) = 1 − P (α(X) ≤ x) = 1 − F2 (x) (2.Y (F1 (α−1 )(x).14) F2 (x) = P (X ≤ α−1 (x).3 Cópulas Arquimedianas O termo cópula Arquimediana foi mencionado pela primeira vez na literatura estatística em dois artigos de Genest & Mackay (1986ab) [17] e [18].β(Y ) (u.Y (1 − u.17) na equação (2. Demonstração item 2.Y (u.8) Cα(X).19) e.18) e utilizando o Teorema 2.39 Substituindo a equação (2.β(Y ) (u.20) na equação (2.16) na equação (2.19) e (2.17) Desta forma. v) = Cα(X). β(Y ) ≤ y) = P (X ≥ α−1 (x). Y ≤ β −1 (y)) (2. Y ≥ β −1 (y)) = 1 − [P (X ≤ α−1 (x)) + P (Y ≤ β −1 (y)) − P (X ≤ α−1 (x). v) = 1 − [1 − F2 (x)] − [1 − G2 (y)] + CX.20) Substituindo as equações (2. Demonstração item 3. .13).β(Y ) (F2 (x). G1 (β −1 (y)) = u + v − 1 + CX.18) Reescrevendo F1 (α−1 (x)).3. Y ≥ β −1 (y)) = u − CX.

Em particular. ∞] → I dada por ( φ[−1] (t) = φ−1 (t). se 0 ≤ t ≤ φ(0) 0. Além disso. as cópulas Arquimedianas podem assumir dependência caudal assimétrica. Estas facilidades se devem ao fato da representação da cópula Arquimediana permitir reduzir o estudo de cópula multivariada ao estudo de uma função univariada denotada por gerador de uma cópula Arquimediana φ. ∞] uma função contínua e estritamente decrescente tal que φ(1) = 0. incluindo estruturas próprias de estudos financeiros. se φ(0) ≤ t ≤ ∞ Note que φ[−1] é contínua e não crescente em [0. φ[−1] (φ(u)) = u. se φ(0) = ∞. Recentes estudos empíricos mostram que períodos de turbulência e calma em finanças são caracterizados por diferentes níveis de dependência caudal. sendo uma propriedade a favor de sua aplicação à modelagem de dados com estrutura de dependênica assimétrica.40 A Classe das cópulas Arquimedianas abrange uma grande variedade de estruturas de dependência. ∀u ∈ I (3. Definição 2. = min(t.21) e ( [−1] φ(φ (t)) = t. Dependência caudal inferior e superior entre dois mercados financeiros existe quando a probabilidade de valores conjuntos negativos (positivos) em eventos extremos é maior que a que poderia ser prevista a partir das distribuições marginais. Algumas questões em finanças exigem modelos que permitem uma forte dependência entre as perdas extremas (por exemplo. então φ[−1] = φ−1 . se φ(0) ≤ t ≤ ∞ Finalmente. As cópulas Arquimedianas podem ser construídas facilmente e a forma fechada para sua expressão é simples.7. A seguir esta função é apresentada com mais detalhes. A pseudo-inversa de φ é a função φ[−1] : [0. e estritamente decrescente em [0. φ(0)]. se 0 ≤ t ≤ φ(0) φ(0). Em estudos financeiros um aspecto importante a ser analisado é a dependência caudal. Seja φ : I → [0. bolsas em colapso) e ganhos extremos. φ(0)) . sendo a dependência mais forte sobre a cauda inferior do que na cauda superior. ∞].

O seguinte lema apresenta uma condição necessária e suficiente para que a função C na equação (3. existe t ∈ I tal que C(t. v) = v.7. φ(v2 ) + φ(t) = φ(v1 ). ou seja. (⇒) VC ([u1 . temos C(0. v2 . sempre que u1 ≤ u2 . v2 )) + φ(t)) − φ[−1] (φ(C(u1 .22) Então C satisfaz duas das três condições para uma cópula. é aplanada e marginalmente uniforme. v2 ). Sejam φ. v) = 0 e C(1. Seja φ e φ[−1] como na Definição 2.4.24) ≤ C(u2 . por simetria. C(u2 .22) seja bicrescente. t)) (3. t) − C(C(u1 . u2 ] × [v1 . v2 ) ⇔ VC ([u1 . a equação (3.3. Lema 2. (⇐) Considere C satisfazendo a equação (3. v) − C(u1 .23) Analogamente. 0) = φ[−1] (φ(u) + φ(0)) = 0 A última igualdade segue da definição de pseudo-inversa. u2 ]×[v.41 Lema 2. v2 )) + φ(t)) = C(C(u2 . 1) = φ[−1] (φ(u) + φ(1)) = φ[−1] (φ(u)) = u (3. v2 ) − C(u1 . 1]) ≥ 0 que é sempre válida quando C é bicrescente. uma cópula. Como C é contínua. u2 ] × [v.24) Demonstração. Então C é bicrescente. v1 ) − C(u1 .21) C(u. v) = φ[−1] (φ(u) + φ(v)) (3. v) ≤ u2 − u1 (3. 1) − C(u2 . v) − C(u1 . C(0. v2 ). v1 ) = φ[−1] (φ(u2 ) + φ(v1 )) − φ[−1] (φ(u1 ) + φ(v1 )) = φ[−1] (φ(u2 ) + φ(v2 ) + φ(t)) − φ[−1] (φ(u1 ) + φ(v2 ) + φ(t)) = φ[−1] (φ(C(u2 . desde que φ e φ[−1] também são. Seja a função C : I2 → I dada por C(u.24) é equivalente à condição VC ([u1 . C(u. v) ≥ 0 ⇔ u2 − u1 ≥ C(u2 . e portanto. 1]) = C(u1 . Então C(u2 . v2 ∈ I. v1 ≤ v2 .φ[−1] e C satisfazendo as hipóteses do Lema 2. v2 ) = v1 . Demonstração. v) + C(u2 . Sejam v1 . (3.3.24). 1) − C(u1 . v2 ) = 0 ≤ v1 ≤ v2 = C(1. v) Então. pois φ(u) + φ(0) ≥ φ(0) sendo φ uma função que assume somente valores positivos. v2 ]) ≥ 0 . se e somente se.

φ[−1] (a) ≤ (1 − γ)φ[−1] (b) + γφ[−1] (a + c) . Como consequência do Lema 2.24) válida. Supondo a equação (3.25) onde a ≥ b. Logo por definição de função convexa.25). e desde que φ[−1] é contínua segue que φ[−1] é convexa. Teorema 2.7. somente a estrutura da função φ pode determinar se a função C da equação (3. (⇒) Observe que a equação (3. b = s e c = (t − s)/2 na equação (3. O fato de φ[−1] convexa implica na convexidade de φ. Se definirmos a = (s + t)/2. t ∈ [0. e c ≥ 0. temos [−1]  φ s+t 2  ≤ φ[−1] (s) + φ[−1] (t) 2 Logo φ[−1] é mid-convexa. e seja 0 ≤ γ = (a−b)/(a−b+c) ≤ 1. Então a função C : I2 → I dada pela equação (3.24) também é equivalente a φ[−1] (a) + φ[−1] (b + c) ≤ φ[−1] (b) + φ[−1] (a + c) (3.22) é ou não uma cópula. b = φ(u2 ) e c = φ(v). por φ ser decrescente. Sejam a.22) é uma cópula se e somente se φ é convexa.24) é válida se e somente se φ é convexa.4 também encontra-se relacionada com uma propriedade da função φ. Sejam φ e φ[−1] como na Definição 2. c ∈ I tais que a ≥ b e c ≥ 0.6.3). b. ∞] tais que 0 ≤ s ≤ t.24) é equivalente a u1 + φ[−1] (φ(u2 ) + φ(v)) ≤ u2 + φ[−1] (φ(u1 ) + φ(v)) para u1 ≤ u2 .25). bem como as outras duas condições para que C seja uma cópula (Lema 2.4 é necessário provar que a equação (3. ou seja. Demonstração.42 O próximo teorema mostra que a condição da função C ser bicrescente dada pelo Lema 2. Deste modo. supondo que φ[−1] satisfaça a equação (3. Sejam s. então a equação (3. se denotarmos a = φ(u1 ). (⇐) Assuma φ[−1] convexa. Deste modo temos a = (1−γ)b+γ(a+c) e b+c = γb+(1−γ)(a+c).

e definindo as correspondentes cópulas via equação (3.5. v) Sendo então a cópula limite inferior de Frechét uma cópula Arquimediana. que completa a prova. φ é denominada gerador não estrito. Exemplo 2.apenas encontrando funções φ com propriedades que satisfaçam sua hipótese . φ[−1] = φ−1 e C(u. 0) = max(u + v − 1. Gerando a cópula C via equação (3. φ[−1] (t) = max(1 − t. a família de cópulas 4. Em outras palavras.7.7 que φ[−1] (t) = φ−1 (t) = exp(−t). 0) = W (u.7. ∀t ∈ I.1.(continuação) Seja φ(t) = 1 − t.7 φ[−1] (t) = φ−1 (t) = 1 − t. Uma grande variedade de famílias paramétricas de cópulas pertence a classe das cópulas Arquimedianas. a família de Clayton apresenta dependência caudal inferior.12 apresenta ambas dependências caudais e a família de Frank não apresenta dependência caudal. um gerador não estrito (Figura 2.(continuação) Seja φ(t) = − ln(t). . Nelsen [31] apresenta uma lista extensa com as famílias de cópulas Arquimedianas mais comuns. φ é denominada gerador estrito. Exemplo 2.43 e φ[−1] (b + c) ≤ γφ[−1] (b) + (1 − γ)φ[−1] (a + c) Somando as duas últimas igualdades resulta na equação (3. ou seja. v) Deste modo a cópula produto Π é também Arquimediana.2).6. Conforme Definição 2. Cópulas Arquimedianas podem ser contruídas usando o Teorema 2.22) são denominadas Cópulas Arquimedianas. A função φ é denominada gerador de uma cópula Arquimediana.22). temos φ−1 (φ(u) + φ(v)) = exp(−[(− ln u) + (− ln v)]) = uv = Π(u. Se φ(0) < ∞.3). um gerador estrito (Figura 2. Exemplo 2. a cópula Arquimediana C é unicamente determinada pelo gerador φ. A família de Gumbel apresenta dependência caudal superior.2. As quatro cópulas apresentam diferenças distintas com relação a estrutura de dependência que representam. v) = φ−1 (φ(u) + φ(v)) é denominada cópula Arquimediana estrita. temos φ−1 (φ(u) + φ(v)) = max(1 − [(1 − u) + (1 − v)]. 0 ≤ t < ∞. Algumas destas famílias são apresentadas na Tabela 3. Se φ(0) = ∞.25). Pela equação (3. Cópulas da forma apresentada na equação (3. 0).22). ∀t ∈ I. De acordo com a Definição 2. Segue da Definição 2. ∀t ∈ I e 0 para t > 1.22).6 . é simétrica em relação a diagonal secundária.

0 0.0 0.0 44 0. ∞) sim − ln e−θv −1 e−θ −1 θ 1 t −1 Tabela 3.5 1.0 0.0 0.1. .4 0.2: Gerador φ não estrito e pseudo-inversa φ[−1] para a cópula Arquimediana W . ∞) sim (−∞. Nelsen [31] não apresenta nenhum nome especial para a última cópula da Tabela 3.2. ∞]\{0} θ ≥ 0∗ (− ln t)θ [1.0 0.4 0.0 0.6 0. caso contrário é não estrito).8 1.2 0.0 1.1. logo esta dissertação refere-se a esta cópula conforme notação deste autor.0 t Figura 2.6 0.8 0.12 (1 (− ln v)θ ]1/θ ) −θu −θv −1) − 1θ ln 1 + (e −1)(e e−θ −1 + [(u−1 − 1)θ + (u−1 − 1)θ ]1/θ )−1  Frank +   φθ (t) θ∈ estrito t−θ −1 θ [−1.4 phi^[−1](t) 0.6 0. v) Clayton max [u−θ + v −θ − 1]−1/θ exp(−[(− ln u)θ Gumbel 4.5 3.5 t 2. ∞)\{0} sim [1.2 0.0 2. nome Cθ (u.2 phi(t) 0.8 1.1: Algumas famílias paramétricas de cópulas Arquimedianas com seus geradores e espaços paramétricos (*na cópula de Clayton o gerador é estrito se θ ≥ 0.

Fm (xm )).0 2.6 0.0.0 0 t 1 2 3 4 t Figura 2.26) .0 0.0 phi^[−1](t) 2. 1).4 0. .3: Gerador φ estrito e pseudo-inversa φ[−1] para a cópula Arquimediana Π.0 0.5 1. para a construção de distribuições contínuas multivariadas.0 45 0..4 Cópulas Multivariadas e a Transformada de Laplace Conforme já mencionado. a cópula associada à F é uma função distribuição C : [0. a cópula é a distribuição multivariada de um vetor aleatório composto por distribuições marginais univariadas U (0.0 1. a função de distribuição acumulada conjunta FX pode ser obtida através de suas funções de distribuição acumulada marginais e da cópula que é uma estrutura de dependência dada por uma distribuição CX associada à X. Em outras palavras.8 3. Fm (xm )) onde x ∈ Rm [25].. onde Fj é a j-ésima função de distribuição marginal univariada. ou seja.0 0..5 0.0 3. 1] que satisfaz F (x) = C(F1 (x1 ). 2.2 1. 1]m −→ [0.5 2. (4.. pode-se utilizar as suas funções densidade marginais univariadas e uma estrutura de dependência multivariada..5 phi(t) 2.5 0..0 1.5 3. Para uma distribuição mvariada F ∈ =(F1 (x1 ). .5 1.

será assumido que as Transformadas de Laplace correspondem à transformadas de v. φ possui derivadas contínuas de todas as ordens e derivadas com sinais alternados. ∞) → [0. . Observa-se que a transformada φ é contínua. . Fm 1 m m 1 Nesta seção. tem-se que as funções em L∗n são. 2....26).d. .a.. quando F for uma f. Além disso.. (−1)j−1 w(j) ≥ 0. Isto nos possibilita verificar se o domínio das expresões utilizadas na construção de cópulas é [0. M (0) = 0 ou. univariada. ∞). .27) 0 onde s ≥ 0 [25].. isto é. serão utilizadas mistura de potência das f... Isto é devido ao fato de que exp{−φ−1 (F (x))} será uma f. m = 1. j = 1. (−1)j φ(j) ≥ 0. isto é. 1]|φ(0) = 1.a.. Esta propriedade de alternância de sinais na derivada é denominada completamente monótona. Então χα é completamente monótona para todo α > 0 se e somente se −ln(χ) ∈ L∗∞ . ∞)|w(0) = 0. .. φ ∈ L1 . Durante o capítulo. . Considerando a classe L∗n = {w : [0. A Transformada de Laplace é definida por Z ∞ φ(s) = e−sw dM (w) (4. m}. então lims→∞ φ(s) = φ(∞) = πo . Seja Lm = {φ : [0. Então..a.. φ(∞) = 0. usualmente. o funcional inverso φ−1 é estritamente decrescente e satisfaz φ−1 (0) = ∞ e φ−1 (1) = 0. funções quantis F1−1 .. n}.. F −1 (u )) é única e verifica (4. ∞) → [0. a classe das funções diferenciáveis.. Teorema 2..a.a. então C(u) = F (F −1 (u ). As composições do tipo ψ −1 ◦ φ ∈ L∗∞ aparecerão na construção de cópulas trivariadas. Seja χ uma Transformada de Laplace. Estes são úteis pois nos fornecem a imagem das funções que são o domínio das Transformadas de Lapace.d. (−1)i φ(i) (s) ≥ 0 para todo s ≥ 0 onde φ(i) representa a i-ésima derivada. w(∞) = ∞. Seja M uma função de distribuição acumulada de uma v...d. estritamente decrescentes. 2.. φ(∞) = 0. n = 1... Se πo for a massa de M em 0.7.8. composições da forma ψ −1 ◦ φ com ψ. em termos de φ(s). .46 Se F é uma função de distribuição contínua m-variada com marginais univariadas F1 . j = 1. estritamente decrescente e satisfaz φ(0) = 1. positivas. A seguir serão apresentados alguns teoremas sobre a classe L∗∞ . não-negativa. Definição 2. Fm e −1 . univariadas e a Transformada de Laplace para a construção de uma cópula C. A seguir será definida a Transformada de Laplace. .

em =(F1 .d.d. 1) é C(u1 . o valor x em será suprimido.31) possui densidade T P2 . A cópula (4.27) e (4. Para simplificar a notação. Seja F uma dada f. univariada. u2 ) = φ(φ−1 (u1 ) + φ−1 (u2 )) A forma (4. −1 (F Considerando a classe bivariada =(F1 . Demonstração: Para a demonstração consulte [25].a. então η(s) = φ(−ln(ψ(s))) é uma Transformada de Laplace.a.8. Demonstração: Para a demonstração consulte [25]. Então.29) obtemos G(x) = e−φ −φ−1 (F (x)) G(x) = e .28) 0 Comparando (4.30) 0 A cópula obtida considerando que F1 e F2 assumem valores da distribuição U (0. a expressão a seguir é uma f.31) é denominada Cópula Arquimediana e possui a seguinte propriedade: Teorema 2.28) podemos escrever Z F (x) = ∞ Gα (x)dM (α) = φ(−ln(G(x))) (4.29) 0 −1 (F (x)) Da expressão (4. F2 ).9. Então. 2. seja Gj = e−φ j) . F2 ): Z ∞ Gα1 Gα2 dM (α) = φ(−ln(G1 ) − ln(G2 )) = φ(φ−1 (F1 ) + φ−1 (F2 )) (4.47 Demonstração: Para a demonstração consulte [25]. existe uma única f.d.31) . (4. Se ψ é uma Transformada de Laplace tal que −ln(ψ) ∈ L∗∞ e φ é outra Transformada de Laplace.a. j = 1. G tal que ∞ Z Gα (x)dM (α) F (x) = (4. Teorema 2.

é dada por C(u) = ψ(ψ −1 ◦ φ[φ−1 (u1 ) + φ−1 (u2 )] + ψ −1 (u3 )) (4. ela. SI. distribuição com Transformada de Laplace χα definida por χ−1 α (z) = ν A expressão (4.. Fm . 3) da forma (4. então.32) é um caso especial de (4. Como ela possui dependência T P2 . 2) da forma (4. ao contrário da expressão (4. Observe que (4. é Z ∞Z ∞ C(u) = 0 −1 onde G1 = G2 = e−φ 0 Gβ1 (u1 )Gβ2 (u2 )dM2 (β.. α) é a −1 (−α−1 ln(z)).34) segue da seguinte representação: .48 O teorema anterior fornece a dependência da cópula arquimediana.31) com Transformada de Laplace φ e funções de distribuição marginais bivariadas nas coordenadas (1. possui dependência SI.a. α)Gα3 (u3 )dM1 (α) −1 (4.32) j=1 Uma generalização trivariada de (4. PQD.34) e G3 = e−ψ . Para m f. RTI.32) que envolve apenas uma Transformada de Laplace.33) onde ψ. 3) e (2. consequentemente. por exemplo.33). uma extensão simples é dada pela f.30). Porém. M2 (.d. F1 .33) possui funções de distribuição marginais bivariadas nas coordenadas (1.. também. Note que (4.d. .31) com Transformada de Laplace ψ. envolverá mais que um parâmetro. univariadas. ela poderá ser adequada na modeladem de variáveis aleatórias T P2 e não ser adequada na modelagem de variáveis aleatórias que possuem algum tipo de dependência mais fraco. multivariada P −1 F = φ( m j=1 φ (Fj )) cuja Cópula Arquimediana é. que generaliza (4. LTD.31).a. no sentido de obter-se mais estruturas de dependência pois a expressão seguinte envolverá duas Transformadas de Laplace diferentes e.33) quando ψ = φ. φ são Transformadas de Laplace e ν = ψ −1 ◦ φ ∈ L∗∞ . v.a. m X C(u) = φ( φ−1 (uj )) (4. que é uma dependência forte. M1 é a distribuição correspondente à ψ.. A representação em forma de mistura de funções de distribuição de (4.

• TLD: φ−1 θ (t) = −ln  1−e−θt 1−e−θ  . 3. u2 )Gα3 (u3 )dM1 (α) 0 onde M1 e G3 foram definidas anteriormente e G12 (u1 . −θ − 1. . Similarmente. • TLC (série de potência): φθ (s) = 1 − (1 − e−s )1/θ .. θ ≥ 0...a. . u2 ) = exp(−ν[φ−1 (u1 ) + φ−1 (u2 )]). As seguintes famílias uniparamétrica de Transformada de Laplace (TL) podem ser utilizadas para a construção de cópulas com o uso das expressões apresentadas anteriormente: • TLA: φθ (s) = exp(−s1/θ ). • TLD (série logarítmica): φθ (s) = −θ−1 ln(1 − (1 − e−θ )e−s ). onde t = φ(s). θ ≥ 1. A fim de motivar a construção das Transformadas de Laplace observa-se que a família TLD é obtida através de uma v.a. iθ i = 1. 2. a família TLC é obtida através de uma v. Joe [25] apresenta outras famílias. cuja função de probabilidade é θ−1 para Q −1 i = 1 e θ−1 i−1 j=1 (j − θ ) para i = 2. cuja função de probabilidade possui a expressão (1−e−θ )i . • TLB (gamma): φθ (s) = (1 + s)−1/θ .49 Z ∞ Gα12 (u1 . θ > 0. θ > 0. As correspondentes transformadas inversas são dadas por: θ • TLA: φ−1 θ (t) = (−ln(t)) . . • TLB: φ−1 θ (t) = t θ • TLC: φ−1 θ (t) = −ln(1 − (1 − t) ). . Além das famílias de Transformadas de Laplace mostradas anteriormente.. .

TLB. v. • Família B1 : Modelo de Frank [12] Este modelo utiliza a Transformada de Laplace φ como sendo a família TLD. A função densidade associada à este modelo de cópula é. v < 1 .31) obtendo-se os modelos de cópulas bivariadas a seguir. E. • Família B2 : Modelo de Kimeldorf e Sampson [29] Este modelo utiliza a Transformada de Laplace φ como sendo a família TLB. pode-se mostrar que −ln(φθ ) ∈ L∗∞ . A cópula associada à este modelo é dada por C(u. Este modelo engloba o caso das variáveis aleatórias serem independentes quando δ → 0. Para as demonstrações destes fatos consulte [25]. c(u. TLC e TLC. As famílias de Transformada de Laplace citadas anteriormente podem ser aplicadas na equação (4. densidade T P2 . δ) = −δ −1  ln η − (1 − e−δu )(1 − e−δv ) η  onde η = 1 − e−δ .50 Considerando-se as famílias TLA. a demonstração é direta. Para as famílias TLA e TLB. v. δ) = (u−δ + v −δ − 1)−1/δ para 0 ≤ δ < ∞. 0 ≤ δ < ∞. entre outras. A cópula associada a este modelo é dada por C(u. demonstra-se utilizando o Teorema 2.7. δ) = δηe−δ(u+v) (η − (1 − e−δu )(1 − e−δv ))2 Esta família possui. reflexão simétrica 1 [25]. as seguintes propriedades: SI. 1 c(u. v|δ) = c(1 − u. 0 < u. v. 1 − v|δ). para as famílias TLC e TLD.

as seguintes propriedades: SI. v. v. A sua função densidade é. Este modelo engloba o caso das v.a. A cópula associada a este modelo é dada por C(u. densidade T P2 [25]. Este modelo engloba o caso das v.a. entre outras. c(u. v. • Família B3 : Modelo de Joe [24] Este modelo utiliza a Transformada de Laplace φ como sendo a família TLC. A cópula associada a este modelo é dada por C(u. δ) = exp(−(e uδ + veδ )1/δ ) para 1 ≤ δ < ∞ onde u e = −ln(u) e ve = −ln(v). v. serem independentes quando δ → 0. δ) = 1 − (uδ + v δ − uδ v δ )1/δ para 1 ≤ δ < ∞ onde u = 1 − u e v = 1 − v. as seguintes propriedades: SI. . entre outras. densidade T P2 [25]. δ) = (1 + δ)(uv)−δ−1 (u−δ + v −δ − 1)−2−1/δ Esta família possui. • Família B4 : Modelo de Gumbel [21] Este modelo utiliza a Transformada de Laplace φ como sendo a família TLA. δ) = uδ−1 v δ−1 [δ − 1 + u−δ + v −δ − uδ v δ ](uδ + v δ − uδ v δ )−2+1/δ Esta família possui. serem independentes quando δ = 1.51 A sua função densidade é dada por: c(u.

densidade T P2 [25]. u2 . serem independentes quando δ = 1. • Família M1 : Generalização da família B2 Este modelo utiliza as Transformadas de Laplace ψθ1 e φθ2 como sendo a família TLB. δ)(uv)−1 (e uve)δ−1 [(e uδ + veδ )1/δ + δ − 1] (e uδ + veδ )2−1/δ Esta família possui. θ1 ≥ 0 e θ2 ≥ 0. v. θ1 . Este modelo engloba o caso das v. entre outras. Joe [25] apresenta outros modelos de cópulas bivariadas além de extendê-los para variáveis aleatórias com dependência negativa. δ) = C(u. θ2 ) = para θ1 ≤ θ2 . as seguintes propriedades: SI. A cópula associada a este modelo é dada por C(u1 .a. v.52 A função densidade associada à este modelo de cópula é dada por: c(u.  2 u−θ 1 + 2 u−θ 2 −1/θ1 θ1 /θ2 −θ1 −1 + u3 − 1 . u3 .

θ2 ) = exp − [−ln(u1 )]θ2 + [−ln(u2 )]θ2 + [−ln(u3 )]θ1 para θ1 < θ2 . θ1 ≥ 1 e θ2 ≥ 1. u2 . θ1 . A cópula associada a este modelo é dada por (  1/θ1 )  θ1 /θ2 C(u1 . u3 . .53 • Família M2 : Generalização da família B4 Este modelo utiliza as Transformadas de Laplace ψθ1 e φθ2 como sendo a família TLA.

54 .

transformada pela acumulada.d. 1) pode-se concluir que H não seque distribuição U (0. geralmente a f.d. y100 )} uma amostra aleatória de uma distribuição H normal bivariada com média µ = (0.d.a.Capítulo 3 Variável BIPIT 3. 1) (Figura 3.a. V ) ≤ t) 55 . K(t) = P (H(X. unidimensional com f.d. K de H não é U (0. . . O QQplot entre a amostra aleatória da v. O estudo da v. H e de sua f.a. a v. com distribuição U (0. G(Y )) ≤ t) = P (C(U.3 0.a. para maiores dimensões isto geralmente não acontece. Suponha (X. 1). . K é importante. H calculada por Hi = H(xi .a. yi ) e uma amostra com distribuição U (0. H = H(X.a. transformada pela acumulada conjunta. Y ). Y ) com f. Seja {(x1 . y1 ). H. pois ambas contém informação de dependência sob H(X. temos U = F (X). e não das marginais F e G. a v. . seja H = H(X.a. 0) e matrix de covariância Σ= 1 0.3. F contínua. Porém. já que dependem apenas da cópula associada a H pelo Teorema 2.1).a. Exemplo 3.1 Variáveis PIT e BIPIT Sabe-se que se X é v. Y ).1. Y ).a. 1). (x100 . Y ) ≤ t) = P (C(F (X).3 1 ! Tomemos a v.a.

a. 1) ao trabalharmos com conceito de BIPIT. O Exemplo 3. Y1 com marginais F1 e G1 exponenciais λ = 2 e λ = 10 respectivamente. Sejam as BIPIT’s H.2 ● ●●● ●● ● ● ● ●● ● 0.0 H_(i) Figura 3.1).2. . contando que a cópula contém toda informação da estrutura de dependência de (X. . com f. Conforme QQ-plot da Figura 3.a. V ) e (X1 .56 QQplot 0.1. com f.2.8 ● ● ● ● ● ● ●● ●● ● ●● ● ● ●●● ● ● ● ● ●● ● ●● ● ● ● ●● ● ●●●●●● ● ● ● ●● 0.6 0.1: QQplot entre a amostra Hi = H(xi . Então U = F (X) (V = G(Y )) e H = H(X.d. Deste modo assumiremos sem perda de generalidade o par aleatório (X. Y ) com marginais U (0.d. V com distribuição marginal U (0. yi ) da BIPIT H associada distribuição normal bivariada do Exemplo 3. U100 } com distribuição U (0. Sejam U. respectivamente. Definição 3. . Y ). .a.a.4 0. Y ) são denominadas respectivamente PIT e BIPIT.Y v. F e G respectivamente e (X. 1).0 0. 1) e X1 .6 ● ● ● ● ● ● ● ● ● ●● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ● ● ● 0. Por sua importância para o estudo de estruturas de dependência é necessário nomear a v.d.1 e uma amostra {U1 . fato que se observa pelo Teorema de Sklar (1. Y ) vetor aleatório bidimensional com f.4 0. independência H. Y1 ). Exemplo 3.8 1. Sejam X. H.2 U_(i) 0.2 evidencia que a BIPIT independe das marginais.a. H pela seguinte definição. .0 0. H1 associadas aos vetores aleatórios (U.

2 0. vi ) = ui vi sendo ui . BIPIT.4 0. . vi amostras de U (0. 1) e H1i = H(x1i .a. Então Z 1 E(I{C(x.6 ● ● 0.4 0. . Y ). . Seja (X.2: QQplot das amostras das BIPITS H e H1 : {H1 . .1.8 H_(1i) Figura 3. . n = 100.0 0. evidenciando que a estrutura de dependência da BIPIT é invariante sob as marginais. Y ).2 H_(i) 0. . H1n } respectivamente.d. .57 H e H1 são identicamente distribuídas.8 ● ● ● ● ● ● ●● ●● ●● ● ●●● ● ●●● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ●●● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ● ● ● ● 0.a. Os seguintes teoremas apresentam uma expressão para o cálculo da função distribuição K da BIPIT H = C(X.1) . .d. H ≡ C(X. onde Hi = H(ui .6 0.0 0. Teorema 3. da v.a. C e seja K a f. Y ) ≤ v}|X = x)dx K(v) = 0 (1. Y ) um vetor aleatório com f. Hn } e {H11 . y1i ) = F1 (x1i )G1 (y1i ) sendo x1i com distribuição exp(2) e y1i com distribuição exp(10). 0.

v )dx. Y ) ≤ v|X = x)dx v Conforme hipótese. Sejam Cx (y) ≡ C(x.2 toda cópula C é limitada superiormente pela cópula maximal M (x.y) ∂x R1 e λ(v) ≡ − v C ∗ (x.58 Demonstração.v .v |X = x)dx v v  Z 1 Z yx. Y ) ≤ v}|X = x)dx.2. Y ) ≤ v|X = x)dx = P (Y ≤ yx. Y ) ≤ v}|X = x)dx . Então Z 1 Z 1 P (C(x.v ) = v para x fixo. yx. Z K(v) = v + 1 C ∗ (x. Y ) ≤ v ⇔ Y ≤ yx. v {z } | {z } (1) (2) De acordo com o Teorema 2. Y ) ≤ v) = E[I{C(X. C(x. yx. Então. Y ) ≤ v}|X = x)dx + E(I{C(x. logo I{C(x.3) v onde. A integral (2) pode ser reescrita como Z 1 P (C(x. Desta maneira a integral (1) é igual a v.v = c(x. y) = min(x.v )dx v . Y ) ≤ v}|X = x]) Z 1 = E(I{C(x.v ≡ Cx−1 (v). e C é marginalmente não decrescente. Y ) ≤ v} = 1 para a região de integração da integral (1). C(x. (1. yx. ∀0 ≤ v ≤ x.1) K(v) pode ser escrito como Z K(v) = |0 v Z 1 E(I{C(x. y) estritamente crescente e inversível e yx. y) ≤ v.2) 0 Teorema 3. ∀ 0 ≤ x ≤ v. y)dy dx v 0 Z 1 = C ∗ (x. C ∗ (x. Demonstração.v )dx ≡ v − λ(v) (1. y) ≡ ∂C(x. yx. 0 < x < 1. Y ) ≤ v}] = E(E[I{C(x. K(v) = P (C(X. logo temos a equivalência C(x. Pela equação (1. y). Então.

No Teorema 3. y ∈ I Observe que KM (v) deve ser calculada através de uma mistura de cópulas. 0 ≤ α ≤ 1. (1.3. Cópula Produto: Π(x. chamada Família de Fréchet. v). KΠ (v) = v − v ln v.v ≡ Cx−1 (v).59 onde c é a densidade de C.v ) = v.v ) ∈ I2 . yx.v = xv . Z 1 Π∗ (x.v ) = v} Conforme Nelsen [31].2 temos. v > 0 (1. Exemplo 3. yx.4) A curva (1. Exemplo 3. x. yx. Cα (x.v = Lv (x) = φ[−1] (φ(v) − φ(x)) = φ−1 (φ(v) − φ(x)) sendo a última igualdade garantida pela Definição 2.7. c(u. 0 < x < 1 fixo. y) = (1 − α)xy + α min(x. 0 ≤ v ≤ x. v) ≡ ∂2C ∂u∂v (u.2 temos Π∗ (x. y). yx. y) = min(x.2 yx.5) .4. porque a Cópula M não satisfaz a hipótese do Teorema 3. y) = xy . y) .v ) ∈ I2 |C(x.4) pode ser reescrita expressando yx. Logo.2 pois Mx (y) não é estritamente crescente . Cópula Maximal: M (x. y) = y e Π(x.v ) pertencentes a curva φ(x) + φ(yx. x. representa a segunda coordenada dos pontos do conjunto de nível v da cópula C dado por {(x.v )dx = v Z 1 Z yx. para uma cópula Arquimediana este conjunto de nível v consiste dos pontos (x. Z 1  v X≤ y  P KΠ (v) = P (XY ≤ v) = dy 0 Z 1 Z v v 1dy + = dy = v − v ln v v y 0 Usando o Teorema 3. (x. Quando α → 1. yx.v dx = v v 1 v dx = −v ln v x Portanto.v em função de x por yx.v ) = φ(v). yx. então yx. temos KCα (v) → v e segue que KM (v) = v. y ∈ I Sem a aplicação do Teorema 3.

a. yx.v )) = φ0 (x)φ[−1] (φ(v)) = φ0 (x) φ0 (φ−1 (φ(v))) = φ0 (x) .v ) ≥ φ(0)} | {z } | {z } | {z } (1) (2) (3) . Para as cópulas Arquimedianas com gerador estrito. é dada por: K(v) = v − φ(v) φ0 (v + ) (1.5.v )|y ∈ I e x = 0} ∪ {(x. Seja C uma cópula Arquimediana gerada por φ ∈ Ω. Em sua demonstração é usado o conceito de curva de nível de cópulas Arquimedianas.2 para demonstrar que λ(v) = φ(v) φ0 (v) usando os conceitos de curva de nível e conjunto de nível de uma cópula Arquimediana C.v ) ∈ I2 |C(x. K da v. Y ). yx. BIPIT.5) 0 C ∗ (x. φ0 (v + ). yx. Para o caso v = 0 temos (x. 0 (1. Utilizaremos o Teorema 3.60 Para v = 0. denota a derivada a direita de φ em v e Ω o espaço dos geradores φ. H ≡ C(X.1). Demonstração. φ0 (v) para v > 0. Z(C) é composto pelos dois segmentos de reta {0}×I e I×{0} de acordo com Definição 2. Z(C) tem área positiva e é limitado pelos segmentos {0} × I e I × {0} e pela curva φ(x) + φ(yx.v )|x ∈ I e yx.d.v ) = φ0 (x)φ[−1] (φ(x) + φ(yx.1).6) onde. dados não somente pela curva L0 (x) da equação (1.v = 0} ∪ {(x. Para as cópulas Arquimedianas com gerador não estrito.v ) = 0} é chamado conjunto zero de C e denotado por Z(C). yx. por exemplo para família de Clayton θ ≥ 0 (Tabela 3.a.d. as cópulas Arquimedianas que serão o foco desta dissertação. os pontos pertencentes ao conjunto zero da cópula C.   ∂C(x.v ). yx. mas pertencentes ao conjunto {(x. y) ∂φ(y) 0 0 C ∗ (x. yx. yx. y) ≡ = φ0 (x) + φ[−1] (φ(x) + φ(y)) = φ0 (x)φ[−1] (φ(x) + φ(y)) ∂x ∂x então. o conjunto {(x.v )|φ(x) + φ(yx. yx. Corolário 3.a.1. K de BIPIT assoaciada a uma classe particular de cópulas. A f. O Corolário a seguir fornece ferramentas para facilitar o cálculo da f. por exemplo para família de Frank (Tabela 3.v = L0 (x) chamada curva zero de C. isto é.v ) = φ(0).5).

v ) ≥ φ(x) + φ(0) − φ(x) = φ(0) então.v )) φ0 (x) = φ0 (φ[−1] (φ(x) + φ(yx.v ) ∈ (1). a cópula de Clayton C−1 é a cópula minimal W . ∀v ∈ [0. K(v) = v − φ(v) φ0 (v + ) φ(v) φ0 (v) considerando φ diferenciável em v. temos φ(x) + φ(yx.5. yx.v ) = φ0 (x)φ[−1] (φ(x) + φ(yx.7. de algumas cópulas Arquimedianas.1 apresenta as funções distribuição K. Deste modo segue que. E se (x. v ∈ I.v ) ∈ (3). Exemplo 3.v ) = φ0 (x)φ[−1] (φ(x) + φ(yx. para o conjunto (2) segue idêntico resultado. Por simetria. calculadas por meio do Corolário 3.1. pois v ≤ x por hipótese do Teorema 3. para qualquer gerador φ de cópula Arquimediana C. temos φ0 (v) ≡ Concluindo. 0 φ (v) φ (v) Logo. A Tabela 1. yx. 1] .7. yx. então substituindo θ = −1 na função distribuição K de Clayton temos KW (v) = 1. para v ∈ I temos K(v) = v − λ(v) = v − Se φ não for diferenciável em v. temos 0 0 C ∗ (x. Z λ(v) = − v 1 φ0 (x) φ(v) dx = 0 .61 Se (x.v )) = φ0 (x)φ[−1] (φ(x) + φ(0)) φ0 (x) φ0 (x) = = φ0 (0) φ0 (φ[−1] (φ(x) + φ(0))) usando a Definição 2. Como visto no Exemplo 2. 0 C ∗ (x. φ0 (v + ). yx.v ))) φ0 (x) = φ0 (0) usando a Definição 2.2.7.

12 −θv v ln v θ −θv θe−θv ln e −θ −1 v− v+ v+ e −1 e−θv −1 v 2 ( v1 −1) θ Tabela 1. Y1 ) e (X2 . . ∀v ∈ [0.3. Y1 ) ≺k (X2 .1: Cópulas Arquimedianas da Tabela 3. Esta ordem estocástica é chamada Kendall devido a estar associada ao coeficiente populacional da medida de associação tau de Kendall estudada no próximo capítulo. Definição 3. 1] 3.2 Propriedades da função K Esta seção apresenta propriedades para K relativas a uma ordenação estocástica definida a seguir. que será apresentada no próximo capítulo. Y2 ) com f.2. Do mesmo modo usando θ = 1 na função distribuição K de Gumbel temos KΠ (v) = v − v ln v. F1 e F2 respectivamente é denotada por X1 ≺st X2 equivalente a F1 (x) ≥ F2 (x). ou seja.d. H1 ≺st H2 .2. Também existe uma associação entre a função K e a medida tau de Kendall. Y1 ) ≺st H2 (X2 . A ordem estocástica de Kendall entre dois vetores aleatórios contínuos (X1 .a.d. H1 e H2 respectivamente e denotada como (X1 . Y2 ) ou H1 (X1 .1 com os respectivos geradores φ e funções distriuição K. Y1 ) e H2 = H2 (X2 . por isso K é chamada frequentemente de função distribuição de Kendall [32]. ∀x ∈ R. contínuas X1 e X2 com f. Y2 ) representa a ordenação estocástica entre as BIPIT’s H1 ≡ H1 (X1 . Definição 3. Y2 ).a. A ordem estocástica ordinária entre duas v.a.62 cpula Clayton φθ (v) Kθ (v) v −θ −1 v + vθ (1 − v θ ) θ Gumbel (− ln v)θ Frank −1 − ln ee−θ −1 θ 1 v −1 4.

a.7) λW (v) ≤ λ(v) ≤ λM (v).d.2.2 mostrando KM ≤ K ≤ KW e λW (v) ≤ λ(v) ≤ λM (v) para as funções K das cópulas de Gumbel e Clayton. Teorema 3. temos C ∗ (x. ou seja.7) temos v ≤ K(v) ≤ 1 ⇔ v ≤ v − λ(v) ≤ 1 ⇔ v − 1 ≤ λ(v) ≤ 0 Corolário 3. definida pelo Teorema 2.v )dx ≤ 0.a.a. ou seja.4 ilustram o Teorema 3. Equação (2. v ≤ K(v) ≤ 1.8): Provada equação (2. ou seja Cθ ≺k Cθ∗ . v − 1 ≤ λ(v) ≤ 0. Sendo C(x. Tal ordenação é confirmada através das formas analíticas das funções K apresentadas no Exemplo 3. yx. (2.8) Demonstração. y) positiva. deste modo K(v) = v − λ(v) ≥ v. v ∈ I.3 e 3. KM (v) ≤ K(v) ≤ KW (v). Sejam K a f.3 e o Corolário 3. (2.63 O teorema abaixo valida os limites de Frechét também para a ordem estocástica de Kendall.d. As Figuras 3.7): É trivial que K(v) ≤ 1 com K(v) f.3. v ∈ I. Além de também ilustrarem a ordenação estocástica de Kendall para as famílias de Clayton e Gumbel com θ ≤ θ∗ ⇒ KCθ ≥ KCθ∗ . BIPIT H ≡ C(X. logo λ(v) ≡ − v C ∗ (x. Y ) e a função λ(v). Os limites de Frechét são válidos para a ordem estocástica de Kendall W ≺k C ≺k M Exemplo 3. y) não deR1 crescente marginalmente.3. Equação (2. v ∈ I.6.5 para a fámília de Clayton e Gumbel. . da v.

8 1.8 1.8 1.0 0.6 0. W (linha cheia cinza) e família de Gumbel para θ = {1. família de Clayton para θ = {1. 3.2 0. .2 0.0 0.0 v Figura 3.0 0.8 1. 4} (segunda figura).3: Funções distribuição de Kendall das cópulas M (linha cheia preta).0 64 0.4 0.4 0.6 0.6 0.2 K(v) 0.6 0.0.0 0.2 K(v) 0.4 theta=1 theta=3 theta=7 0.4 theta=1 theta=3 theta=4 0.0 v 0.0 0. 7} (primeira figura). 3.

4}.5 lambda(v) 0.0 0.2 0. v ∈ I.0 −1.5 theta=1 theta=3 theta=7 0. família de Clayton para θ = {1. .0 v Figura 3.0 0.0 v 0. das cópulas M (linha cheia preta).0 65 0.0 1. 3.6 0. 3.4 0.8 1.4: Funções λ(v).2 0.0 −0. 7} (primeira figura).0 −1.5 theta=1 theta=3 theta=7 0.0 −0. W (linha cheia cinza) e família de Gumbel para θ = {1.1.8 1.6 0.5 lambda(v) 0.4 0.

66 .

Porém.1 Concordância Informalmente. Diz-se que estas observações são concordantes se (y − y˜) >0 (x − x ˜) discordantes se (y − y˜) <0 (x − x ˜) Tau de Kendall é uma medida de associação definida em termos da concordância pela diferença entre a probabilidade dos pares concordantes e discordantes.Capítulo 4 Tau de Kendall Este capítulo explorará a cópula como objeto de estudo de dependência ou associação entre duas variáveis por meio do coeficiente tau de Kendall. E o par é discordante caso contrário.a. um par de variáveis aleatórias é concordante se grandes valores de uma variável estão associados a grandes valores da outra variável ou se pequenos valores de uma variável estão associados a pequenos valores da outra variável. primeiramente.1. Sejam (x. Y ) de v. y) e (˜ x. será apresentado o conceito e algumas propriedades desta medida de associação. concordância é definida por: Definição 4. 4. y˜) duas observações de um vetor (X. contínuas. 67 . Formalmente.

d. G(y)) 2 Z ZR ZZ = [1 − u − v + C2 (u. Y2 ) vetores aleatórios i.2. v)dC1 (u. H2 respectivamente. v) − 1 I2 Demonstração.1) Teorema 4. v) I2 I2 A última igualdade segue de U. Sejam (X1 .i.d.a. contínuas com função distribuição conjunta H1 . Y2 > Y1 ) = P (X2 > x. Sejam (X1 . a função Q pode ser reescrita por Q = 2P [(X1 − X2 )(Y1 − Y2 ) > 0] − 1. V serem U (0. v)] dC1 (u. X2 ) e G (de Y1 . G(y))dC1 (F (x).1. onde P [(X1 − X2 )(Y1 − Y2 ) > 0] = P (X1 > X2 . Y2 < Y1 ) = P (X2 < x. C1 . Y2 > y)dC1 (F (x).a. v)dC1 (u. com a mesma f. v) R2 I2 ZZ (2) = P (X2 > X1 . H é definido por τ ≡ P [(X1 − X2 )(Y1 − Y2 ) > 0] − P [(X1 − X2 )(Y1 − Y2 ) < 0] (1. Y1 < Y2 ) {z } | {z } | (1) (2) ZZ (1) = P (X2 < X1 . Y2 ). Então o coeficiente populacional Tau de Kendall de um vetor (X. Y1 ) e (X2 . G(y)) R2 ZZ = [1 − F (x) − G(y) + C2 (F (x). v) I2 . H. C2 ) ≡ 4 C2 (u. Y2 ) e seja Q ≡ P [(X1 − X2 )(Y1 − Y2 ) > 0] − P [(X1 − X2 )(Y1 − Y2 ) < 0] denominada função de concordância. Y2 ) vetores independentes de v.a.68 Definição 4. Y1 > Y2 ) + P (X1 < X2 . Y1 ) e (X2 . então ZZ Q ≡ Q(C1 . ZZ P [(X1 − X2 )(Y1 − Y2 ) > 0] = 2 C2 (u. G(y)) = C2 (u. v) = C2 (u. logo E(U ) = E(V ) = 21 . contínuas com f. com marginais comuns F (de X1 . Y ) de v. v)dC1 (u. G(y))] dC1 (F (x). Deste modo. C2 as respectivas cópulas de (X1 . Y2 < y)dC1 (F (x). v)dC1 (u. Como P [(X1 − X2 )(Y1 − Y2 ) < 0] = 1 − P [(X1 − X2 )(Y1 − Y2 ) > 0].a.d. Y1 ). G(y)) 2 R ZZ ZZ = C2 (F (x). (X2 . 1).

Pelo Teorema 4.d. O coeficiente populacional τ de Kendall é dado por Z τ =1+4 0 1 φ(t) dt φ0 (t) (1. BIPIT com f. tau de Kendall também é expresso em função de φ para cópulas Arquimedianas. v) − 1 = 4E(C(U.a. V )) − 1 (1.2) segue da Definição 4.3) 0 Demonstração. v) − 1 Q=4 I2 O próximo resultado estabelece uma ligação entre a medida tau de Kendall entre duas v.2. G(Y )) a sua v. equação (1. 1] não assume valores negativos. v)dC1 (u. Corolário 4.1.4) Demonstração. Sejam X. Da equação (1. então E(H) = R1 0 1 − K(t)dt Assim como a função distribuição K de uma BIP IT associada a uma cópula Arquimediana é expressa em função do gerador φ. K. X e Y e a cópula C associada a estas variáveis por meio da função de concordância.2.a. Teorema 4.2) temos 1 Z τ = 4E(H) − 1 = 4 Z 1 − K(t)dt − 1 = 3 − 4 0 1 K(t)dt 0 Como a v. Sejam X. contínuas com cópula Arquimediana C gerada por φ.a. G(Y )) com f.a. contínuas com cópula C e seja H ≡ C(F (X).1. A prova da equação (1. O coeficiente populacional tau de Kendall é dado por ZZ τ ≡ Q(C.6) Z τ = 3−4 1 t− 0 φ(t) dt = 1 + 4 φ0 (t) Z 0 1 φ(t) dt φ0 (t) .2) I2 e pode ser reescrito por 1 Z τ =3−4 K(t)dt (1. v)dC(u.a. Y v.a.d. C) ≡ 4 C(u.2 e do Teorema 4. BIPIT H ∈ [0. Y v. K.a.3) (1.69 Então segue que ZZ C2 (u. Seja a BIPIT H ≡ C(F (X).

tais expressões encontram-se na Tabela 1.12 Tabela 1.70 Exemplo 4.4).1: Medida de associação τ de Kendall expressa em função do parâmetro θ para algumas famílias de cópulas Arquimedianas. temos ZZ Z uvdΠ(u. f am´ilia Arquimediana τ = f (θ) Clayton θ θ+2 τ = θ−1 θ 2 τ = 1 − 3θ τ= Gumbel 4. ou seja. sendo então possível encontrar uma função de θ que expresse a medida de associação τ de Kendall. devido a complexidade de resolução da integral na equação (1. 1). Y . 0)dW (u. v) = g(u. temos ZZ Z 1 g(u. v)dW (u. M ) = 4 Z 1 min(u.1).1. v) = I2 1 g(u. desde que W possui como suporte a diagonal secundária v = 1 − u.1. segue que se g é função integrável cujo domínio é I 2 . v) − 1 = 4 I2 1 0du − 1 = −1 0 A cópula M é chamada cópula maximal por estabelecer relação de dependência perfeitamente positiva entre as variáveis X. probabilidade . 1 − u)du I2 0 Logo. v) − 1 = 4 I2 udu − 1 = 1 0 ZZ τW = Q(W. v) − 1 = 4 τΠ = Q(Π.2. Exemplo 4. u)du 0 Similarmente. como pode ser evidenciado pelo valor τM = 1.4) é de simples resolução. então ZZ Z g(u. Para as demais famílias Arquimedianas citadas nesta dissertação a integral na equação (1. Se Cθ é um membro da família de Frank (Tabela 3.2. W ) = 4 Z max(u + v − 1. v)dM (u. Desde que a cópula M possui como suporte a diagonal v = u em I 2 e possui marginais U (0. Π) = 4 I2 1 uvdudv − 1 = 0 0 ZZ τM = Q(M. v)dM (u. o cálculo de τ torna-se mais adequado via integração numérica.

O contrário acontece para a cópula W . Demonstração. y) = min(x.i. y) b) τ = −1 ⇒ C = W 1. a cópula C é M . Y ) e (X 0 . a discordância das variáveis X e Y é certa. y) = max(x + y − 1. C = W . (⇐) A prova que τW e τM são iguais a −1 e 1 respectivamente segue do Exemplo 4.71 1 de que X e Y sejam concordantes. E τ = −1. Y . O Teorema a seguir mostra a unicidade da relação de dependência perfeita negativa e positiva com respeito às cópulas.d. O coeficiente populacional tau de Kendal associado a cópula C pela equação (1.d. Teorema 4. ou seja. 0) Demonstração a): . A seguir a demonstração será dada como consequência de uma sequência de afirmações: a) τ = 1 ⇒ C = M 1. X 0 . 2. X = Y ⇒ C(x. τ = −1 ⇒ Y = 1 − X com probabilidade 1.2. chamada cópula minimal por estabelecer relação de dependência perfeitamente negativa entre as variáveis X. 2. Y 0 ) i. 1) e sejam (X.a. Y 0 com distribuição U (0. cópula C.2) é igual a 1. Y = 1 − X ⇒ C(x. se e somente se. Y. τ = 1 ⇒ X = Y com probabilidade 1. com f. (⇒) Agora considerando X. se e somente se.3. τW = −1.

y) = 1 2 Z ZI [2C(x. y)) = min(x. C(x.5) . P (X > x) = P (X > x. y) = 1 I2 Como. Y < y) = (1 − x) − C(x. y) ⇔ X = Y com probabilidade 1 2 logo. X = Y ) = P (X ≤ min(x. y) e. y) Demonstração b): τ = −1 ⇒ P [(X − X 0 )(Y − Y 0 ) < 0] = 1 ZZ ⇒ [P (X > x. P (X < x) = P (X < x. y) = y − C(x. Y > y) + P (X < x. y) = x+y ≤ min(x. Y ≤ y. y) + 1 − x − y] dC(x. y) + 1 − x − y] dC(x. Y < y) + P (X < x. Y > y) (1. Y < y)] dC(x. Y < y) + P (X < x. y) = 1 ⇒ 2C(x. y)] dC(x. y) = P (X ≤ x.72 τ = 1 ⇒ P [(X − X 0 )(Y − Y 0 ) > 0] = 1 ZZ ⇒ [P (X > x. y) = 1 2 Z ZI ⇒ [1 − FX (x) − FY (y) + 2C(x. Y < y) + P (X > x. y) + 1 − x − y = 1 ⇒ I2 ⇒ C(x. C(x. Y > y)] dC(x. y) = 1 2 Z ZI ⇒ [2C(x. y) = x+y 2 Aplicando os limites de Fréchet. Y > y) ⇒ P (X > x.

0). . se 0 ≤ 1 − y ≤ x ≤ 1 = F (x) − F (1 − y) = 0. se caso contrario. κX.a. 3.X = 1 e κX. C(x.−X = −1. Definição 4.Y ≤ 1.−Y = −κX. κ é definida para todo par X. κX.a. Se X.d. Desta forma temos. y) = x+y−1 2 Por limites de Fréchet. Y > y) = x − C(x. 4.Y .a. κ−X. Y de v. y) = max(x + y − 1.Y = κY.X . contínuas X e Y cuja cópula é C é uma medida de concordância se satisfaz as seguintes propriedades 1. agora veremos que este coeficiente também é uma medida de concordância que apresenta as propriedades desta. y) Substituindo na equação (1. contínuas. 2.3.Y = κX. No início deste capítulo foi visto que o tau de Kendall é uma medida de associação expressa em termos da concordância.73 ⇒ P (X < x. temos x + y − 2C(x. da v. X. −1 ≤ κX. Uma medida numérica κ de associação entre duas v. Y < y. Y = 1 − X) = P (1 − y ≤ X ≤ x) ( x + y − 1. pois para este caso τ = −1 conforme Exemplo 4.a. com F denotando a f. max(x + y − 1. y) = 1 ⇒ C(x.1. 5. Y são independentes. O caso particular θ = −1 da família de Clayton é a cópula minimal. y) = P (X < x. Exemplo 4. C(x.5).3. então κX. 0) ≤ x+y−1 ⇔ Y = 1 − X com probabilidade 1 2 logo.Y = 0.

v) ≤ C2 (u.−Y = −τX. 7. então κC1 ≤ κC2 . Se C1 e C2 são cópulas tais que C1 (u. Y é uma função crescente da v. Segue da definição de τ dada pelo Teorema 4. Como CX.a. Vide Exemplo 4. 1). Se {(Xn . v)dCX.3.5 temos τX. v) = v − CX.Y (1 − u.X = τM e τX. Seja τ ≡ Q(C.Y (z.Y . pelo Teorema 4. 5.2.logo ZZ τW.Y (z. v)dCX. temos τM = 1 e τW = −1. ∀(u.Y (1 − u.a. 6. então τX.Y . v) − 1 = −4 CX. pois U é U (0. e se {Cn } converge ponto a ponto a C. então o coeficiente populacional τ de Kendall satisfaz as propriedades da Definição 4. então −1 ≤ τ ≤ 1 e utilizando demonstração do Teorema 4. existindo então uma dependência perfeita . Como τ é definido na equação (1. v)dC(u. X.74 6. v) − 1 I2 Aplicando a transformação z = 1 − u. Se X. 2.Y (1 − u. v). v). 1).3.−X = τW e por sua vez. 7. 4. Y são v.2 foi visto que τW = −1 e τM = 1. Teorema 4. C) conforme Teorema 4.a.Y ) = 4 −v + CX.Y I2 0 0 A última igualdade deve-se ao fato de que Z = 1 − U é U (0. v) ∈ I2 . e por (3.1) por uma diferença de probabilidades. C) = τ n→∞ n→∞ I2 I2 Pelo Exemplo 4.Y = Q(CW. CW. 3.Y = τY.1) ser não decrescente em cada argumento.Y (z.3 é demonstrado separadamente. enquadrando-se como medida de concordância. pelo Teorema 2. Demonstração. Yn )} é uma sequência de v. Mas o resultado abaixo nos permite verificar que se uma v. v)dCn (u. Z 1Z 1 ZZ 4 v − CX.a.4. contínuas com cópulas Cn . v)dCX. Analogamente temos τX. v) − 1 = Q(C. Cada item da Definição 4.Y por CW.Y = CY.Y (z.5 temos que CW.X .2.2 e pela função concordância Q (Teorema 4.Y é dada em função de CX. usando o Teorema da Convergência Dominada de Lebesgue temos ZZ ZZ lim τn = lim 4 Cn (u. v) + 1 = −τX.Y (u. Seja W = −X. então limn→∞ κCn = κC . contínuas com cópula C. v) − 1 = 4 C(u.1) temos τ como função da cópula C.X . como Cn → C e Cn é limitada pela cópula Maximal M .

então κM = 1 e κW = −1. Embora o Kendall Plot seja detalhado no próximo capítulo. Teorema 4.Y = κW = −1.d.3 temos C = M ..a. Y ) e (X1 . V ) com cópulas C . então C = W . obtém-se τ =-1.Y = κM = 1.a. τ = 2 × 1 − 1 = 1 e pelo Teorema 4. Pelo item 6. C = W .Y = W . 2.3 e pelos limites de Fréchet. Se Y é quase certamente uma função crescente de X. Primeiro. há a necessidade de uma breve introdução de seu conceito neste capítulo para a justificativa de seu nome. então C = M e que se Y é quase certamente uma função decrescente de X. Considerando f não crescente.75 positiva entre estas variáveis então caracteriza-se CX. Demonstração. Se Y é quase certamente uma função decrescente de X. f não decrescente. então κX. por intermédio de τ . Y ) com cópula C. da Definição 4.i.a. BIPIT’s H ≡ C(U. chamado Kendall Plot.Y = M . 1. Y = f (X). Seja κ medida de concordância para v. Por meio da medida de concordância τ verifica-se este resultado. para Y função decrescente de X caracteriza-se CX. V ) e H0 ≡ C0 (U. Y1 ) duas realizações i. Logo. Y1 = f (X1 )] = P [(X − X1 )(f (X) − f (X1 )) ≥ 0] = 1 A última igualdade deve-se ao fato de f não decrescente. do mesmo modo. W ≤ C ≤ M . se provam que se Y é quase certamente uma função crescente de X sendo (X. O Kendall Plot pode ser interpretado como um teste gráfico de cópulas baseado em um QQplot entre duas v. A medida de concordância tau de Kendall nomeia o método gráfico de ajuste de cópulas apresentado no próximo capítulo. como um particular exemplo de medida de concordância. temos κW ≤ κ ≤ κM e como pelo item 2. X = f (Y ) e X1 = f (Y1 ) com probabilidade 1. −1 ≤ κ ≤ 1. com f. H. onde P [(X − X1 )(Y − Y1 ) ≥ 0] = P [(X − X1 )(Y − Y1 ) ≥ 0. Como P [(X − X1 )(Y − Y1 ) ≥ 0] + P [(X − X1 )(Y − Y1 ) < 0] = 1.5. Sejam (X. De maneira análoga.1) temos τ = 2P [(X − X1 )(Y − Y1 ) ≥ 0] − 1.d. então κX. e consequentemente. pela equação (1. contínuas X e Y .

v) ∈ I2 . Então pela equação (1. v). temos τΠ ≤ τC . . ou seja. A recíproca da equação (1.8) nem sempre é válida. da Definição 4. De maneira geral.8) Exemplo 4. ∀ 1 ≤ i ≤ n ⇒ τ ≤ τ0 (1.5. observa-se que os gráficos referentes a θ1 = −0. caracterizando τθ1 < τ0 < τθ2 . No contexto do QQplot as v. o Kendall Plot revela uma informação a respeito entre a relação dos coeficientes populacionais τ de Kendall associados às cópulas C e C0 . A Figura 4. deste modo pela propriedade 6. temos Π(u. 1/4 + CW (u. Se o QQplot diagnosticar H e H0 identicamente distribuídas.a.76 desconhecida e C0 conhecida.7) temos τθ ≤ τθ∗ . v). Y ) ≺k (X0 . Como K e K0 são f.1 mostra o QQplot de (H0 . logo a implicação (1. θ ≤ θ∗ ⇒ Cθ ≺k Cθ∗ . (3/4) bt + 3/4c) (Nelsen (2003) [32]). ∀ 0 ≤ w ≤ 1 ⇒ τ ≤ τ0 (1. ∀ (u. Esta relação entre τ de Kendall e Kendall Plot se deve ao fato da associação entre τ e K por τ ser uma função de K (Teorema 4.5 e θ2 = 2 respectivamente. Conforme Exemplo 3.a. Exemplo 4. v) ≤ C(u. não é verdade que Π ≺k C. os n pontos (Hi .3) temos. v) = min(CM (u.7) Assim justificando o nome da ordem ≺k como ordem estocástica de Kendall. H1 ) e (H0 .6) é equivalente a Hi ≤ H0i . os QQplot’s (H0 . porém KC (1/e) = 3/4 > 2/e = KΠ (1/e). H(1i) ≤ H0i ≤ H(2i) . conforme Definição 3. BIPIT associadas a cópula de Clayton com θ1 = −0..3 temos. então a BIPIT H está associada a cópula C0 . (X.a.a.d. H1 e H2 as v.4. ou seja. BIPIT de uma determinada cópula C. Caso contrário. Seja a cópula C dada por C(u.2). ou seja. ∀ 0 = p1 < . ou seja. < pn = 1.6 a família de Clayton segue a ordem estocástica de Kendall. Conforme ordenação estocástica de Kendall para a família de Clayton.5 e θ2 = 2 encontram-se respectivamente abaixo e acima da diagonal principal. BIPIT associada a cópula Π. K(w) ≥ K0 (w). sendo H v. H2 ) com H0 v.6) ou então. v)) com KC (t) = max(t. .3. BIPIT’s H e H0 são vistas como quantis de suas respectivas distribuições K e K0 . H0i ) do QQplot são dados por Hi = K −1 (pi ) e H0i = K0−1 (pi ). H) situados acima da diagonal principal revelam uma estrutrua de dependência . então pela implicação (1. Y0 ) ⇒ τ ≤ τ0 (1.a.

2 0. vi ) com Cθ cópula de Clayton com parâmetro θ (A linha com ponto e tracejado é a diagonal principal do gráfico).8 H_(0i) Figura 4.8 QQplot 0. vi ).5: H0i = Π(ui .6 0. vi ).1: QQplots referentes Exemplo 4. H1i = C−0.3 item 4.5 (ui .2 H_(1i) 0. já que τ0 = 0 pois é associado a cópula Π (Definição 4.4 0.0 0.4 0. 0. .6 0.).H_2) 0.H_1) (H_0. H2i = C2 (ui .77 positiva para H e situados abaixo revelam uma estrutura de dependência negativa.0 (H_0.

78 .

BIPIT H associada a uma cópula C. BIPIT que traduz um problema multivariado ao contexto univariado preservando as características da estrutura de dependência dos dados.6). Neste contexto Genest & Frave (2007) utilizam o gráfico QQplot usando a v.a. 79 . sendo por essa razão o gráfico denominado desta maneira. Este problema é resolvido usando a v.a.Capítulo 5 Kendall Plot 5. o gráfico proposto compara os quantis amostrais aos quantis teóricos sob hipótese nula de uma específica função distribuição K de uma v. o gráfico proposto mostra se há evidência de dependência entre as variáveis. A motivação para a criação deste mecanismo partiu do mais simples modo para o ajuste de distribuições: o gráfico QQplot. BIPIT para a modelagem de cópulas e denominam esta ferramenta gráfica por Kendall Plot. Esta foi a primeira proposta do Kendall Plot sugerida por Genest e Boies(2003).a. Quando os quantis teóricos sob hipótese nula referem-se a cópula da independência Π (Exemplo 2.1 Introdução Em meio a um recente estudo de ferramentas para o ajuste de cópulas ainda há a necessidade de um mecanismo simples e eficiente para a modelagem de dependência. Este capítulo também apresenta a relação existente entre a medida de concordância tau de Kendall e o gráfico Kendall Plot. Porém em cópulas trabalha-se num contexto multivariado diferentemente do QQplot. Assim como o QQplot padrão compara os quantis amostrais aos quantis teóricos da normal padrão.

. X. X dada por Fn (Xi ) = 1 #{j 6= i : Xj ≤ Xi } n−1 (2. temos X(dnpe) → F −1 (p). 1] em probabilidade e quase certamente quando n → ∞(para demonstração veja apêndice 2). .2 Construção do Kendall Plot O Kendall Plot é uma adaptação do gráfico de normalidade. Zn } é uma amostra aleatória com distribuição normal padrão. . . empírica da v. Sendo Fn a f. X(dnpi e) ). é garantida a convergência do quantil amostral ao quantil teórico da distribuição.1 QQplot Uma maneira gráfica de verificar se uma amostra aleatória univariada X1 .a da v. ∀p ∈ [0. sendo F a f. Xn é Gaussiana é comparar os quantis amostrais com os quantis teóricos de uma normal padrão. . 0 ≤ p1 < . a sequêcia {X(dnpi e) }. de acordo com a equação (2.2. . < pn = 1. Ou seja. onde dnpi e denota o menor inteiro maior ou igual a npi .a. porém usando o conceito de BIPIT. para todo 1 ≤ i ≤ n e denotando i ≡ dnpi e. E de acordo com Sen & Singer [35]. Mais especificamente. . . 5.1) observa-se que a estatística de ordem X(i) ≡ X(dnpi e) é definida como o pi -quantil amostral de uma amostra de tamanho n.2) com 0 = p1 < . temos Fn (X(i) ) = i−1 ≡ pi n−1 (2. .a. Sua construção é similar ao QQplot. .d. Deste modo a convergência de Zdnpe:n ≡ E(Z(dnpe) ) ao quantil teórico da normal padrão é garantida pelo Teorema da Convergência Dominada [22] lim E Z(dnpe) n→∞  = E  lim Z(dnpe)  n→∞ = E[φ−1 (p)] = φ−1 (p) .a. < pn ≤ 1 corresponde às estatísticas de ordem da amostra e Zdnpe:n ≡ E(Z(dnpi e) ) onde {Z1 .d. .80 5. O QQplot é o gráfico dos pares (Zdnpi e:n .1). .

. da normal padrão. . se trabalha com a BIPIT empírica H distribuição empírica Hn dada por b i ≡ Hn (Xi .3) Desta maneira a hipótese a ser testada pelo Kendall Plot é dada por H00 : K(H) = K0 (H). . Logo. mas também para testar se esta amostra segue qualquer outra distribuição F0 .2 Kendall Plot Seja uma amostra aleatória bivariada (X1 . Yi ) = H 1 #{j 6= i : Xj ≤ Xi . cópulas. 5. É necessário transformar esta amostra bivariada em uma amostra univariada que contenha as mesmas informações de dependência da amostra original para que se possa trabalhar com o conceito do QQplot com a finalidade de ajustar estruturas de dependência. 0 = p1 < . da v. concentra-se sob a diagonal principal. assim como para o teste com a distribuição normal padrão sob hipótese nula. A melhor maneira de transformar dados bivariados em univariados preservando a estrutura de dependência é utilizar a BIPIT desses dados. 0 = p1 < . e conforme equação (2. se para n suficientemente grande o gráfico dos pares (E(Y(dnpi e) ). . . .a. então pode-se concluir que a f. para pelo menos um valor de x ∈ Dom F O procedimento para este teste também é baseado em uma comparação quantílica.a. Yj ≤ Yi } n−1 (2.4) . Xn } com distribuição desconhecida F segue distribuição normal. X é a f. X segue distribuição F0 . H0 : F (x) = F0 (x). Y1 ). Considere pi . b definida pela Como desconhece-se a distribuição dos dados. .2) Fn−1 (pi ) = X(i) ≡ Xdnpi e . o pi -quantil teórico sob hipótese nula. ∀H ∈ I H01 : K(H) 6= K0 (H). λ ∼ = 0. ou seja. (Xn . O QQplot é utilizado não somente para verificar se uma amostra aleatória univariada {X1 . ∀ x ∈ Dom F H1 : F (x) 6= F0 (x). Para cada pi há dois quantis a considerar: E(Y(dnpi e) ) sob hipótese de que Y segue distribuição F0 .81 pois ∀n.a. então a v. . Yn ). X(dnpi e) ). o pi quantil amostral.d. |Z(dnpe) | ≤ Y .d.2.a. com v. . Logo. < pn = 1. . para n suficientemente grande se os pontos (Z(dnpi e) . . < pn = 1 concentram-se sob a diagonal principal. Fn−1 (pi )). . para pelo menos um valor de H ∈ I (2. isto é.a. Y seguindo distribuição Exp(λ).

Mas esta questão não será preocupante nesta dissertação. 2000) [4] e [5]) são da forma    log(u) CA (u. portanto a estrutura de dependência dos dados bivariados associados a H é modelada pela cópula C0 . Khoudraji e Rivest [20] a v.4) e (2. A hipótese (2. desde que A é convexa. Exemplo 5. H1 : C 6= C0 (2.da. KA .a.1. cujas cópulas (veja Capéraà.5) são equivalentes.4) e (2. ∀ 0 ≤ w ≤ 1 e sendo a função A definida como gerador da cópula do valor-extremo C. Então. a não rejeição de H00 não implica na não rejeição de H0 .a. Considere uma distribuição pertencente a classe de distribuições do valor-extremo. v) = exp log(uv)A log(uv) para alguma função convexa A : [0. 1] → [1/2. ou seja. já que trabalhamos com a classe de cópulas Arquimedianas bivariadas para a qual as hipóteses (2. pois o objetivo principal é testar a estrutura de dependência dos dados. 1]. Temos H0 ⊂ H00 .5) não são equivalentes. 1 − w). Fougéres e Genest (1997.d.5) onde a BIPIT H está associada a cópula desconhecida C com distribuição desconhecida K e C0 com distribuição K0 é a cópula a ser testada. a cópula do valor-extremo CA não é unicamente determinada por sua f. pois a implicação C 6= C ∗ ⇒ K 6= K ∗ é falsa e para sua verificação veja exemplo a seguir. Sob a hipótese nula a BIPIT H está associada a cópula C0 e segue distribuição K0 .d. Deve-se tomar cuidado ao usar o Kendall Plot. pois as hipóteses (2. BIPIT H = CA (U. tal que A(0) = A(1) = 0 e A(w) ≥ max(w. se duas distribuições do valor-extremo com geradores A 6= A∗ verificam τA = τA∗ .a. ∀ 0 ≤ w ≤ 1 onde Z τA = 0 1 w(1 − w) 0 dA (w) A(w) é o valor populacional de tau de Kendall. V ) é distribuída por KA (w) = w − (1 − τA )w log(w). logo KA = KA∗ .4) funciona como hipótese auxiliar. logo H0 : C = C0 vs. já que para esta família a cópula .82 onde K é a f. De acordo com Ghoudi. desconhecida da BIPIT H e K0 a f. a ser testada.

por exemplo n > 200. Como o Kendall Plot. apresentando então valores muito próximos de zero em todo seu domínio. . são semelhantes ao do QQplot. assim como o QQplot. ≤ H 0 estatísticas de ordem de uma amostra aleatória H 0 . O integrando em questão é composto por um produto de potências (que dependem de n) de valores entre 0 e 1. . 1. o Kendall Plot realiza uma comparação quantílica.1). Compara-se os quantis amostrais de K aos quantis teóricos de K0 sob hipótese nula. Os pi -quantis amostrais são b (dnp e) ≡ H b (i) e os pi -quantis teóricos denotados por Wdnp e:n. Os passos para construção do Kendall Plot. para algumas funções K0 . .K = E(H 0 representados por H )≡ i i 0 (dnpi e) Wi:n. Veja apêndice 4 para maiores detalhes do método de integração numérica.2).22) observa-se que o gerador φ a determina unicamente. E pela construção de uma cópula Arquimediana (equação 3. Para cada 1 ≤ i ≤ n. é uma ferramenta assintótica foi necessário recorrer a outro método de integração adaptativa para o cálculo de Wi:n. calcula-se a BIPIT empírica H .3).K0 para um grande tamanho amostral. Portanto para grandes valores de n. Este algoritmo não funciona bem para integrandos que assumem valores constantes (em particular. b i como na equação (2. Este comando realiza integração numérica para variável unidimensional através de um método de quadratura adaptativa baseado nas rotinas dqags e dqagi em Piessens & Doncker-Kapenga [33]. .83 C é unicamente determinada pela função K. Os resultados da próxima seção permitem verificar b (dnp e) e E(H 0 que H i (dnpi e) ) realmente representam o pi -quantil amostral e teórico da distribuição sob hipótese nula K0 . por exemplo Kπ . H 0 da BIPIT Sejam H(1) n 1 (n) H 0 com distribuição K0 . 0 ≤ . . listados a seguir. . e sendo decrescente em n. próximos de zero) em todo seu domínio. Wi:n.6) 0 A integral em questão não possui primitiva. a integração usando integrate não corresponde ao valor esperado.K0 sendo pi definido como na equação (2. portanto foi calculada por integração numérica através do comando integrate do software estatístico R.K0 ≡ 0 E(H(i) )  n−1 =n i−1 Z 1 w{K0 (w)}i−1 {1 − K0 (w)}n−i dK0 (w) (2. pela definição de densidade de uma estatística de ordem em Casella & Berger [6]. Assim como o QQplot. Este fato se deve a função distribuição K de uma cópula Arquimediana C ser definida em função do gerador φ desta cópula (Corolário 3.

A função distribuição empírica Kn dos Hi ’s é dada por n Kn (v) = 1X b I{Hi ≤ v} n (3. (Xn . ≤ H b (n) .1. Y1 ).a. b (i) ). calcula-se Wi:n. p ∈ I quando n → ∞.7). cópula C. . P (H b i ≤ v). é um estimador √n-consistente de K(v). ou seja. . . Ordena-se H 3. b 1 ≤ v}] = P (H b 1 ≤ v) E{Kn (v)} = E[I{H (3. . . converge a K(v) = P {C(X.d. . .3) realizações da BIPIT H = H(X. Y ) Definição 5. Provemos que a distribuição b i .3 Resultados e Fundamentos Esta seção apresenta os resultados teóricos necessários para a validade do Kendall Plot como método assintótico para comparação de quantis.8) Dados X1 e Y1 com distribuição U (0. .K0 pela equação (2. H 5. Yn ) uma amostra aleatória com f. Y1 ) com f.84 bi: H b (1) ≤ . Y1 ). no limite a dos H esperança do estimador converge a esperança de K(v) e no limite a variância do estimador é nula.K0 . Um dos resultados evidencia a relação existente entre Kendall Plot e τ de Kendall. Y ). 1 ≤ i ≤ n. y1 ) b 1 é distribuida de uma realização de (X1 . p Kn (v) → K(v) e p Kn−1 (p) → K −1 (p). 2. A função distribuição empírica de Kendall Kn converge em probabilidade à função distribuição de Kendall K sendo a convergência válida também para as inversas. cópula C e {H calculados pela equação (2.1.7) i=1 Teorema 5. . dada pela equação (3. ∀v. ou seja. Sejam H com função distribuição de Kendall K. Y ) ≤ v} e que a função distribuição empírica Kn de H b i ’s. . b1. . Consequentemente seguem as convergências em probabilidade. igualdades são possíveis. 1) sendo (X1 . . Demonstração.a. Seja (x1 . realizações da BIPIT H = C(X. Seja (X1 . H b n }. . 4.d. bem como exemplos decorrentes da teoria para auxiliar na interpretação do gráfico Kendall Plot. H b n calculados pela equação (2.6). Para cada 1 ≤ i ≤ n.3). . b1. pela equação (2. Plotar os pares (Wi:n.3) temos que a quantidade (n − 1)H .

H b 2 ≤ v) − P (H b 1 ≤ v)2 = k(v){k(v)R(v) − 2vK(v)}/n + o(1/n) P (H (3. Y1 ) → C(X1 . y1 ) + C(x1 . H b 2 ≤ v) − p(v)2 ]/n p(v){1 − p(v)}/n + (n − 1)[P (H (3.11) b 1 ≤ v. H b 2 ≤ v2 ) − P (H b 1 ≤ v1 )P (H b 2 ≤ v2 ) P (H (3. Y1 ) = C(X2 . " n 1X b I{Hi ≤ v} V ar[Kn (v)] = V ar n # i=1 b 1 ≤ v}]/n + (n − 1)Cov(I{H b 1 ≤ v}. Y ) e R(v) = E[C{min(X1 . Como momentos condicional a (x1 . segue H do teorema da convergência dominada de Lebesgue que E(etH1 ) converge a E{etC(X1 .9) Logo.85 acordo com uma binomial com parâmetros (n − 1) e C(x1 . k(v) = K 0 (v) é a densidade de H = C(X. Y2 )} − v 2 |C(X1 . logo a variância de Kn (v) pode ser escrita como P (H b 1 ≤ v. X2 ). min(Y1 . tende ao infinito. onde Cn denota a cópula empírica. y1 )et/(n−1) }(n−1) .Y1 ) } quando n b 1 tem a mesma distribuição que C(X1 . y1 ) de H b 1 = Cn (X1 . I{H b 2 ≤ v})/n = V ar[I{H b 1 ≤ v} e I{H b 2 ≤ v} v.8) temos E[Kn (v)] → K(v) quando n → ∞.12) mostra-se que onde K(v) = 1 − K(v).a. Y2 ) = v] Para detalhes veja Genest & Rivest [19]. pela equação (3.10) Usando o termo de ordem 1/n da transformada de Laplace-Stieljes bivariada [1] de b 1 ≤ v1 . H b b 1 ≤ v) = K(v) lim P (H n→∞ (3. Portanto. y1 ). de Bernoulli identicamente distribuídas com parâmetro p(v) = sendo I{H b 1 ≤ v). Desta maneira a função geradora de b 1 é dada por {1 − C(x1 . assintoticamente. ou seja. Y1 ). Y1 ) quando n tende ao infinito. .

logo a convergência segue do De acordo com a Definição 5. . . Demonstração. ∀n e a convergência quase certa.1.12) na equação (3.1 e 0 ≤ p ≤ 1.K ≡ E H(dnpe) → K −1 (p) (3. Hn } amostra aleatória de Corolário 5. Kn como na Definição 5. . então p b (dnpe) = Kn−1 (p) → H K −1 (p) (3.14): lim Wdnpe:n. K.13)  Wdnpe:n. b1.2).13): b (dnpe) = K −1 (p).d.1 pode-se considerar H n Teorema 5.1. Demonstração da equação (3. .a. Sejam {H H com f. a igualdade entre limite da esperança e esperança do limite é garantida pelo Teorema da Convergência Dominada [22]. . .9) e substituindo a equação Como a distribuição de H (3. . Demonstração da equação (3. . {H1 .14) e quando n → ∞.K n→∞ ≡    lim E H(dnpe) = E lim H(dnpe) n→∞ −1 = E[K n→∞ (p)] = K −1 (p) Por |H(dnpe) | ≤ 1.K convergem ao p-quantil teórico da verdadeira distribuição K e mostrando que H ao p-quantil teórico sob hipótese nula de distribuição K0 respectivamente. O corolário a seguir é de extrema importância para a característica assintótica do Kendall Plot b (dnpe) e Wdnpe:n. . então uma aproximação de ordem o(1/n) para a variância de Kn (v) é dada por [K(v)K(v) + k(v){k(v)R(v) − 2vK(v)}]/n E deste modo lim V ar[Kn (v)] = 0 n→∞ e completa-se a prova.10). n→∞ H(dnpe) → K −1 (p) demonstrada por Sen & Singer [35] (veja Apêndice . H b n } realizações da BIPIT H.86 b 1 no limite é dada por K(v)(equação 3.

2. de acordo com a equação (3.2.quando o vetor aleatório (X. H p 7→ K −1 {K0 (p)}.1 ilustra a convergência da BIPIT empírica H n E(H(dnpe) ) a K −1 (p). Reparametrizando p = K0 (w) temos w = K0−1 (p). b (i) ) do gráfico Kendall Plot concentram-se ao longo da curva Corolário 5.15) Demonstração.1 confirma o mencionado na seção 5. Os pares (Wi:n. A Figura 5.2. ou seja.1 sob a hipótese nula de independência. ou seja.3). ∀p ∈ I. 1 ≤ i ≤ n. O gráfico dos pontos (Wi:n.5). Y ) sendo Y = 1 − X que de acordo com demonstração do Teorema 4. ou seja.K0 . K0 (v) = KΠ (v) (veja Exemplo 3. Este fato é verificado formalmente através do corolário abaixo. ∀p ∈ I.1) que possibilita o cálculo direto da inversa K −1 (p). K −1 (p)) = (w.15) concentra-se ao O gráfico dos pontos (Wi:n. 1 ≤ i ≤ n. quando K = K0 .K ≡ Exemplo 5. H b (i) = 0.H está associado a cópula minimal W (veja Exemplo 2.3. H longo da diagonal principal sob a hipótese nula. Usa-se no exemplo a BIPIT H associada a cópula 4.K0 .2 mostra o Kendall Plot dos dados simulados no Exemplo 2. se b (i) ) concentram-se sob a diagonal principal evidencia-se que a BIPIT H segue os pontos (Wi:n.K ≡ E(H 0 ). evidenciando independência nos dados. Logo. . O Corólário 5.6) temos KW (p) = 0. b (i) ). representam respectivamente o pi -quantil da distribuição K (desconPlot. a não rejeição da hipótese nula do Kendall Plot. inversa da distribuição acumulada da BIPIT H. H 0 (i) hecida)e o pi -quantil da distribuição sob a hipótese nula K0 para n suficientemente grande.2. A Figura 5. K −1 {K0 (w)}) logo os pontos do Kendall Plot se comportam como os pontos do gráfico w 7→ K −1 {K0 (w)}.2.15) Exemplo 5. que os elementos do Kendall b (i) e Wi:n. A Figura 5. −1 de acordo com a definição de quasi-inversa (Definição 2. (3.12 (Tabela 3.1 (continuação) b (i) ). H distribuição K0 .87 b (dnpe) ≡ K −1 (p) e Wdnpe:n. Exemplo 2.3 apresenta o Kendall Plot para as observações do vetor aleatório (X.K0 .3.K0 .5). CX.Y = W . Y ) testado concentra-se sob o eixo horizontal . ou seja. de acordo com a equação (3. então (K0−1 (p). ∀v ∈ I (Exemplo 3. 1 ≤ i ≤ n . Esta cópula Arquimediana torna-se uma exceção frente que a distribuição das demais cópulas Arquimedianas não apresentam uma forma fechada para o cálculo da inversa da distribuição. w ∈ I. Como KW (v) = 1.

2 K^{−1} 0.0 ● ●● ●● ● ● ● ● ●● ●● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ●● ● ●● ●●● ● ● ●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●●● ● ● ● ● ●●● ● ●● 0.12 (primeira figura).0 K_n^{−1} ● ●● ●● ●● ● ● ●● ●● ●● ● ● ●● ●● ●● ●● ● ●● ●● ●● ●●● ● ● ● ●●● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● 0.6 0.K = E(H(dnpe) ).2 0.8 1.2 0.0 W_{i:n.0 0. H n n = 100 pseudo-observações da cópula 4.2 K^{−1} 0. sob hipótese da mesma cópula (segunda figura).6 0.8 1.4 0.K} b (dnpe) ≡ K −1 (p) proveniente de Figura 5.6 0. e Wdnpe:n.0 0.4 0.0 88 ●●● ●● ●● ● ●●● ●● ●●● ●● 0.4 0.0. n = 100.2.0 0.4 0.1: Gráficos da inversa da função distribuição K −1 (p) vs. .0 0.8 ●● 1.8 1.6 0.

4. ∀p ∈ I (Exemplo 3. apresenta H 0 .89 Figura 5. sob hipótese nula C = C0 .K0 . Seja a BIPIT H associada a cópula C desconhecida.Y = M .K . ∀ 1 ≤ i ≤ n para n suficientemente grande.5). (x100 . O gráfico dos pontos (Wi:n. Teorema 5. b (i) ≤ Wi:n. . .4 apresenta o Kendall Plot para as observações do vetor aleatório (X. y100 )} sendo xi com distribuição exp(2) e yi com distribuição exp(10) com {xi } gerados de forma independente de {yi }. 1 ≤ i ≤ n. Y ) sendo testado está associado a −1 cópula maximal M (veja Exemplo 2. A Figura 5. . b (i) ).15) Exemplo 5. Se o gráfico do Kendall Plot.2.3.4). H concentra-se sob a curva K0 (p) quando o vetor aleatório (X. Y ) sendo Y = X que de acordo com demonstração do Teorema 4. y1 ). . CX.2: Kendall Plot sob hipótese nula de independência para a amostra {(x1 . de acordo com a equação (3. pois KM (p) = p.

16) . b (i) e Wi:n. Y ) com Y = 1 − X.4. veja Exemplo 4.8). BIPIT e tau de Kendall estabelecida na equação (1.K evidenciadas pelo Corolário 5.K . (3.16) nem sempre é válida. então τC ≤ τC0 . ∀ 1 ≤ i ≤ n ⇒ τC ≤ τC H 0 0 A recíproca da equação (3. De acordo com as convergências de H pela relação entre v.90 Figura 5.a.3: Kendall Plot sob hipótese nula de independência de n = 100 pares de observações do vetor aleatório (X. para n suficientemente grande temos b (i) ≤ Wi:n.1 e Demonstração.

5). 2.5.5 e θ = 5 encontram-se respectivamente abaixo e acima do plot para θ = 2. e observa-se que os dados com θ = 0. Exemplo 5.5. Y ) com Y = X. Simulamos três amostras aleatórias de tamanho n = 150 da cópula de Clayton com os respectivos parâmetros θ = {0.4: Kendall Plot sob hipótese nula de independência.91 Figura 5. Conforme esperado o plot dos dados com θ = 2 encontra-se sob a diagonal principal. de n = 100 pares de observações do vetor aleatório (X. . 5} e construímos os Kendall Plot’s sob hipótese nula de Clayton θ = 2 (Figura 5.5). conforme esperado de acordo com a ordenação estocástica de Kendall para a família de Clayton (veja Exemplo 4.

2.5: Kendall Plot sob hipótese nula de cópula de Clayton θ = 2 (Wi:n.92 Figura 5.5. 5}.K0 referente a Clayton com θ = 2) de amostras aleatórias de tamanho n = 100 associadas a cópula de Clayton com os respectivos parâmetros θ = {0. .

93 .

94 .

30–49. John Wiley & Sons. Biometrika 84 (1997). 765–772. 307–337. U. Fougères. Bivariate distributions with given extreme value attractor.. Durrleman. Luciano. Handbook of Mathematical Functions. USA: Dover. and Vecchiato. Belmont.. E. T. and Ghosh. and Genest. R. 1972. N. USA: Duxbury Press. R. P. 567–577.Referências Bibliográficas [1] Abramowitz. G. G. [3] Bouyè. V.. E. [7] Cherubini. C. Copulas for finance Ű a reading guide and some applications.. L. C. [5] Capéeraà. H. 10 (1982). Some concepts of negative dependence. Working paper. Crédit Lyonnais (2000).. A.. 1990. 4 (1981). Savits. Goupe de Recherche Opérationnelle. Journal of Multivariate Analysis 72 (2000). and T.. and Shahed.. 2004. California. L. P. Communications in Statistics.. [2] Block. A. H. M. The Annals of Probability.. Fougères. I. W. W. [4] Capéeraà. [8] Ebrahimi. 95 . Multivariate negative dependence.. M. Riboulet.. L. Copula Methods in Finance. and Berger. [6] Casella. New York. M... E. Bikeghbali. and Stegun... A nonparametric estimation procedure for bivariate extreme value copulas. Statistical Inference. A. and Genest.

A. P. 347–368. F. C.. Copules archimédiennes et familles de lois bidimensionnelles dont les marges sont données.. Canad. P. and Rivest. Cambridge: Cambridge University Press. and Valdez. C. Risk Management: Value at Risk and Beyond. 280–285. On the simultaneous associativity of f (x. and Walkup. [17] Genest. Understanding relationships using copulas. [11] Esary. and MacKay. Credibility using copulas. [10] Embrechts. Handbook of Heavy Tailed Distribution in Finance.. 40 (1986b). 14 (1986a). and Valdez. and Straumann. P. Statist. 31–48. Journal of Hydrologic Engineering 12 (2007). D. 145–159.. Journal of the American Statistical Association 88 (1993). W. J. A. A. Aequationes Mathematicae 19 (1979).. Khoudraji. K. 2 (2005). J. P. [15] Frees. J. Statist. 2003. J. 1466–1474. J. [12] Frank. Annuity valuation with dependent mortality. [14] Frees. North American Actuarial Journal 2. F.. C. Lindskog.. 1–25. Amer. and Rivest. D. 187–197. D. The Annals of Mathematical Statistics 44 (1967). A. Journal of Risk and Insurance 63 (1996). L.96 [9] Embrechts. M. y). Association of random variables. Propriétés statistiques des copules de valeurs extrêmes bidimensionnelles. C. [20] Ghoudi.. L.. Proschan. The Canadian Journal of Statistics 26 (1998). [16] Genest. E. ... and MacKay. 2002. [18] Genest. McNeil.. E. E. 1034–1043.. with applications. y) and x + y − f (x.. Modelling Dependence with Copulas and Applications to Risk Management. J... [19] Genest. Carriere. E. 194–226. Correlation and dependence in risk management: properties and pitfalls. and Wang. North American Actuarial Journal 9. and McNeil. Statistical inference procedures for bivariate archimedean copulas. The joy of copulas: Bivariate distributions with uniform marginals. Elsevier. and Frave. Everything you always wanted to know about copula modeling but were afraid to ask. [13] Frees. 229–261. E. C. 1 (1998).

2a ed. [23] Joag-Dev. and Ubeda-Flores. Total Positivity. The Annals of Mathematical Statistics 37 (1966).. Y. and Sampson. Publ. Univ. [30] Lehmann. An Introduction to Copulas. Statist. R. Inst. M. Classes of orderings of measures and related correlation inequalities. The Annals of Statistics 11 (1983). Projeto Euclides. USA: Stanford University Press. Rodrigues-Lallena. and Proschan. [27] Karlin. 1999.. California. Uniform representations of bivariate distributions. S. Brasil: IMPA.. 286–295. Chapman & Hall.. A. Rio de Janeiro.. 4 (1975). [24] Joe. [32] Nelsen. 263–268. ii. Paris 9 (1960). multivariate totally positive distributions. [31] Nelsen. L. K. S. [25] Joe. Quesada-Molina. [22] James. i. 2002. Negative association of random variables with applications. Some concepts of dependence. R. [29] Kimeldorf. 467–498. 617–627. Parametric family of multivariate distributions with given margins. Lecture Notes in Statistics 139. H. J. vol. Comm. R.. I. multivariate reverse rule distributions.97 [21] Gumbel. G. R. E. B. Journal of Multivariate Analysis 46 (1993). J. Journal of Multivariate Analysis 10 (1980). and Rinnot. Y. USA: Springer-Verlag. Classes of orderings of measures and related correlation inequalities. 1968. and Rinnot.. . S. Statistics & Probability Letters 65 (2003). New York. statist. 499–516. Distributions des valeurs extrêmes en plusieurs dimensions. J. Kendall distribution functions. Multivariate Models and Dependence Concepts. Probabilidade: um Curso em Nível Intermediário. 1137–1153. E. 262–282. 171–173. F. [28] Karlin. H. [26] Karlin. Journal of Multivariate Analysis 10 (1980). 1997.

[34] Schweizer. 1983. Paris 8 (1959).98 ¨ berhuber. J. A. Statist. . Quadpack: a [33] Piessens. Assoc. R. Model selection and semiparametric inference for bivariate failure-time data. K. USA: Springer-Verlag. New York. and Kahaner. M. Amer.. Fonctions de répartition à n dimensions et leurs marges. 1983.. T. Publ. USA: North-Holland. C. New York. 1993. and Sklar. M. A. E. Large Sample Methods in Statistics: an introduction with applications. and Singer.. and Wells. Univ... Probabilistic Metric Spaces. [37] Wang. 95 (2000). USA: Chapman and Hall. [36] Sklar. W. P. Doncker-Kapenga. [35] Sen. New York.. 62–72. 229–231. Inst. B. J. U subroutine package for automatic integration. Statist. D.