UNIVERSIDADE ESTADUAL DE CAMPINAS INSTITUTO DE ECONOMIA

AVALIAÇÃO DE MODELOS DE VALUE-AT-RISK PARA AÇÕES

CLÁUDIO MISSAGLIA ALARCON

Orientador: Professora Dra. Rosangela Ballini

Dissertação apresentada ao Instituto de Economia da Universidade Estadual de Campinas, como requisito parcial para a obtenção do Título de Mestre em Economia.

Campinas 2005

i

UNIIJAOE
M.

L.HArJADA

-tI UIV Il.Af1P
v ftL ló2..oEX
C

PROC.TOMB~~n') PREÇO DATA
NQ.CPD

~--

os~ ()
rro

FICHA CATALOGRÁFICA CENTRO DE DOCUMENTAÇÃO

ELABORADA PELO

DO INSTITUTO DE ECONOMIA

AL 12a

Alarcon, Cláudio Missaglia. Avaliação de modelos de Value at Risk para ações I Cláudio Missaglia Alarcon. - Campinas, SP : [s.n.], 2005. Orientador: Rosangela Ballini.
Dissertação (Mestrado)

nas. Instituto de Economia.

-

Universidade

Estadual

de Campi-

1. Mercados financeiros futuros. 2. Administração de risco$. 3. Avaliação de risco~. 4. Bancos - Regulamentação. I. Ballini, Rosangela. 11. niversidade Estadual de Campinas. Instituto de U Economia. 11I. Titulo.

11

Agradecimentos A todos meus familiares, pessoas que jamais hesitaram em demonstrar seu apoio e sua confiança nos caminhos por mim escolhidos, em especial meu pai Sérgio, minha mãe Lygia e minha irmã Tatiana, guardiões e conselheiros vitalícios de nosso porto seguro. A Ziggy, fiel escudeiro de manhãs, tardes e noites de estudo e escrita, por seu companheirismo e sua alegria perene. Aos colegas de mestrado Fernanda De Negri, Ricardo Favalli, João Emílio Gonçalves, Thiago Said Vieira, André Biancareli e Isaías Borges, que contribuíram para que essa época de nossas vidas fosse tão rica em discussões e aprendizado como agradável em momentos de convivência universitária. Aos professores José Maria da Silveira, Rosângela Ballini, Otaviano Canuto dos Santos Filho e Emerson Fernandes Marçal, pela ajuda e pelo ecletismo em relação ao tema escolhido. Devo também incluir nessa lista os colegas “virtuais” Márcio Laurini (Ibmec) e Matheus Cavallari (PUC-RJ), pelas indicações bibliográficas de grande valia. Às pessoas do Departamento de Controle de Risco com quem trabalhei na Companhia Brasileira de Liquidação e Custódia (CBLC/Bovespa), Wagner Anacleto, Eduardo Ambrósio e Cláudio J. Rubira, por me cederem, sem maiores objeções, a base de dados utilizada no exercício empírico deste trabalho. Às pessoas sempre atenciosas do Instituto de Economia que não medem esforços em ajudar os alunos desta casa, em particular, José Alberto Curti, Maria Aparecida Fernandes, Almira Rosa Cotegype e Maria de Lourdes Domingues Dias. Ao Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), pelo apoio financeiro durante os dois anos em que fui bolsista. Finalmente, ao Instituto de Economia da Unicamp, pelo ambiente fecundo em reflexão econômica que contribuiu sobremaneira para minha formação enquanto economista.

iii

SUMÁRIO 1 Introdução...................................................................................................................... 1
1.1 Conceituação de risco ......................................................................................................... 1 1.2 Motivação............................................................................................................................ 4 1.3 Organização do trabalho .................................................................................................. 14

2 O Risco de Mercado Sob uma Abordagem Qualitativa............................................... 17
2.1 Transformações financeiras e a questão do risco de mercado ......................................... 17 2.2 O Value-at-Risk enquanto ferramenta de análise do risco de mercado............................ 27
2.2.1 Duas importantes características dos modelos de Value-at-Risk............................................ 34 2.2.2 Limitações dos modelos de Value-at-Risk ............................................................................... 35

2.3 Regulação bancária, risco de mercado e modelos de Value-at-Risk ................................ 38

3 Estimação do Risco de Mercado: o Value-at-Risk ...................................................... 45
3.1 Definição estatística do Value-at-Risk .............................................................................. 45 3.2 Value-at-Risk paramétrico versus não-paramétrico ......................................................... 47 3.3 Métodos paramétricos ....................................................................................................... 49
3.3.1 Modelo Não-Condicional ........................................................................................................ 50 3.3.2 Modelo Condicional ................................................................................................................ 51 3.3.2.1 GARCH (Generalized Autoregressive Conditional Heteroscedasticity).......................... 53

3.4 Método não-paramétrico................................................................................................... 66
3.4.1 Simulação Histórica ................................................................................................................ 66

3.5 O Value-at-Risk para uma carteira de ativos.................................................................... 69

4 Análise Estatística das Séries de Ações ....................................................................... 77
4.1 Fatos estilizados das séries de ativos financeiros ............................................................. 77 4.2 Descrição das séries de ações selecionadas ..................................................................... 79
4.2.1 Petróleo Brasileiro S.A. Petrobrás – PETR4........................................................................... 82 4.2.2 Companhia Vale do Rio Doce – VALE5 .................................................................................. 93

5 Resultados .................................................................................................................. 101
5.1 Forma de estimação dos modelos ................................................................................... 101 5.2 Forma de aferição dos resultados................................................................................... 103 5.3 Resultados empíricos....................................................................................................... 107
5.3.1 Gráficos das estimativas de VaR para a ação da PETR4...................................................... 111 5.3.2 Gráficos das estimativas de VaR para a ação da VALE5...................................................... 118 5.3.3 Tabelas-resumo das estimativas para as ações da PETR4 e VALE5..................................... 125

6 Conclusão .................................................................................................................. 133 7 Bibliografia ................................................................................................................ 137

v

“Nossas dúvidas são traidoras e nos fazem perder o que, com freqüência, poderíamos ganhar, por simples medo de arriscar”. William Shakespeare

“Tudo na vida é administração de risco, não sua eliminação”. Walter Wriston, ex-presidente do Citicorp

vii

AVALIAÇÃO DE MODELOS DE VALUE-AT-RISK PARA AÇÕES

Resumo

A avaliação quantitativa do risco de mercado - através de um instrumental de Value-atRisk - associado à manutenção de posições em ativos financeiros revelou-se, nos últimos anos, um tema de intensa discussão em diferentes áreas de atuação, desde os agentes de mercado propriamente ditos tais como os bancos e outros administradores de recursos, passando por acadêmicos e órgãos reguladores. Se do ponto de vista dos agentes de mercado, o denominador comum está na busca de soluções que minimizem o risco de erosão de seu capital pela via de operações mal conduzidas, pelo lado das autoridades de supervisão e regulação financeira, a preocupação está na possibilidade de que posições demasiadamente arriscadas, assumidas no plano microeconômico das instituições financeiras, possam repercutir de maneira sistêmica em uma conjuntura de preços desfavorável. O objetivo deste trabalho, motivado pelas sucessivas crises financeiras internacionais ocorridas no decorrer da segunda metade da década de 90, num primeiro momento, é expor sucintamente as origens do chamado risco de mercado, ou de preço, para, então, apresentar e analisar empiricamente três modelos de estimação do Value-atRisk, quais sejam: o de variância incondicional, o de variância condicional – GARCH (1,1) e o de Simulação Histórica. Essas três metodologias são testadas para as séries de retornos financeiros das ações da Petrobrás e da Cia. Vale do Rio Doce. Os resultados obtidos com esses modelos são analisados à luz do teste para proporção de falhas proposto por Kupiec (1995).

ix

1 Introdução

1.1 Conceituação de risco

Diversas decisões de alocação de capital levadas a cabo por agentes econômicos envolvem escolhas sobre as possíveis conseqüências destes atos em face do desconhecimento sobre o que o futuro lhes reserva. A despeito dos avanços obtidos no conhecimento científico aplicado à área de finanças e do grande esforço inovativo empreendido na geração de tecnologias computacionais capazes de simular e avaliar impactos sobre determinadas variáveis de interesse, o futuro ainda se apresenta como uma grande incógnita e o exercício dos participantes do mercado em tentar prevê-lo ou antecipá-lo continua bastante limitado e sujeito a erros. De modo geral, a literatura econômica lida com a questão do desconhecimento sobre eventos futuros amparada em duas correntes teóricas distintas. A primeira se apóia no argumento de que sob um horizonte temporal futuro prevalece a incerteza. Esta é caracterizada basicamente por uma situação em que não é possível acessar o conjunto completo de eventos factíveis e tampouco suas respectivas probabilidades de ocorrência. Os expoentes dessa argumentação foram Frank H. Knight (1921) e John Maynard Keynes (1921*, 1936), para quem os conceitos de risco e incerteza deveriam ser muito bem diferenciados. Segundo Knight (apud Hirshleifer & Riley, 1992), o conceito de risco se aplicaria a situações em que um indivíduo calcula probabilidades em uma base objetiva, i.e., dispõe de um conjunto completo de informações e, a partir disto, é capaz de inferir logicamente sobre a ocorrência de determinado evento (por exemplo, a probabilidade de se verificar a ocorrência do número três em apenas um lançamento de um dado não-viesado é de um sexto). Já a incerteza estaria relacionada a situações em que não é possível atribuir uma classificação objetiva a determinado acontecimento futuro, devido à impossibilidade de se obter todas as informações relevantes para uma solução final adequada (por exemplo, é impossível inferir sobre a exata probabilidade de que chova no dia de amanhã, ainda que se possa atribuir elevado ou baixo grau de confiança na ocorrência deste evento).

1

Mas foi Keynes quem contribuiu sobremaneira para o debate sobre risco e incerteza na atividade econômica. Argumentando de maneira lógica que o amanhã é algo ainda a ser criado a partir de decisões conjuntas tomadas no presente1, esse autor afirma que é impossível, ou até inverossímil, assumir um nexo probabilístico exato, como aquele apregoado na matemática, para a ocorrência de eventos econômicos futuros. Isto se deve ao fato de que informações pertinentes à questão não podem ser conhecidas em sua completude no momento da tomada de decisão, fundamentalmente por não existirem e, portanto, não poderem ser acessadas de algum conjunto observável de dados objetivos. Deste modo, segundo esse autor, o comportamento de tomada de decisão dos agentes econômicos não se apoiaria, então, apenas em uma análise racional2 mecanicista dos fatos, mas em uma disposição otimista (spontaneous optimism) para enfrentar um ambiente incerto e construir algo positivo. Nas palavras de Keynes (1936, p.150):

“... investment depended on a sufficient supply of individuals of a sanguine temperament and constructive impulses who embarked on business as a way of life, not really relying on a precise calculation of prospective profit”.

Esse impulso instintivo, a qual Keynes se referiu como “animal spirits” e que seria responsável por ações empreendedoras por parte dos agentes econômicos, não é de forma alguma governado por uma lei matemática imutável, mas deriva, em última instância, de um maior ou menor grau de confiança em relação ao futuro. Parafraseando Keynes uma vez mais (1936, p.161):

“Most, probably, of our decisions to do something positive, the full consequences of which will be drawn out over many days to come, can only be taken as result of animal spirits – of a spontaneous urge to action rather than inaction, and not as the
*

Na bibliografia desta dissertação, a obra Treatise on Probability está grafada com o ano de 1973. Isso se deve ao fato da primeira edição de 1921 ter sofrido algumas correções de impressão e símbolos para conferir maior clareza à leitura, sem, contudo, prejudicar seu conteúdo (Nota do Editor). 1 Decisões estas que são desinformadas (no sentido de que o conhecimento é imperfeito), descentralizadas (atomizadas) e descoordenadas (a percepção dos agentes sobre o momento econômico pode ser diferente e influencia subjetivamente suas decisões de investimento). Daí a incerteza em seu sentido mais forte, pois, tomando o comportamento de um mercado ou mesmo da sociedade capitalista como um todo, os eventos econômico-financeiros futuros são resultados da interação de decisões de gasto capitalista feitas no presente (Notas de aula). 2 Ainda que Keynes argumente que o futuro é, por definição, incerto, para este autor, as decisões tomadas no presente pelos agentes econômicos são racionais diante de um cenário de incerteza.

2

outcome of a weighted average of quantitative benefits multiplied by quantitative probabilities”.

A segunda abordagem teórica é fornecida pela assim chamada escola neoclássica. Nesta, o futuro é apresentado numa perspectiva de diferentes estados de natureza que estão associados a valores independentes entre si, sendo suas respectivas probabilidades de ocorrência acessadas de maneira subjetiva como resultado das preferências dos agentes (Kreps, 1990: cap.3). Derivando características dessas preferências a partir de um conjunto de axiomas específicos de racionalidade, em particular a aceitação da existência de uma função de utilidade sujeita a um processo otimizador, dizemos que a escolha do agente econômico envolve risco. É importante reconhecer que na concepção neoclássica admite-se que o conhecimento é imperfeito, ou seja, o agente é incapaz de predizer ao certo o que irá ocorrer no futuro. Contudo, tomando-se como válidas algumas premissas de racionalidade, é possível que esse agente atribua probabilidades numéricas que representam seu provável grau de confiança em cada um dos possíveis estados de natureza. Quanto maior o volume de informação disponível, maior a crença nesses eventos e, portanto, maior a sua utilidade esperada (Hirshleifer & Riley, 1992: cap.5). Isso posto, como bem levantado por Mollica (1999), ao se observar atentamente o funcionamento dos mercados financeiro e de capitais, é plausível se admitir que em determinados momentos o animal spirits keynesiano se apresente como a única explicação razoável para alguns processos de tomada de decisão. Em especial, naqueles períodos em que turbulências financeiras vêm à tona e a incerteza estrutural reinante acaba por ofuscar a racionalidade dos agentes participantes desses mercados. Não obstante, a aceitação de algumas rotinas de funcionamento e de padrões de comportamento, baseados em uma racionalidade coletiva de mercado, torna atrativa a utilização do conceito de risco, na medida em que é de se esperar que os agentes busquem maximizar sua função de utilidade, dada pela relação entre risco e retorno de seus investimentos e sujeita a uma restrição relativa à sua incapacidade de prever com exatidão o futuro. No decorrer deste trabalho, vale dizer, o conceito de risco subjacente é aquele utilizado pela escola neoclássica. Assim, ao abordar a questão do risco de mercado, 3

o que se propõe aqui é a busca de uma representação numérica da incerteza associada aos retornos financeiros de duas ações negociadas em mercados secundários líquidos3. Delimitando um intervalo de confiança estatística para um horizonte de tempo futuro, a medida do risco de mercado (leia-se Value-at-Risk) está relacionada à possibilidade numérica de ocorrência de perdas financeiras maiores que o esperado decorrentes de movimentos adversos (quedas) nos preços dessas ações. Por definição, o Value-at-Risk sintetiza de maneira concisa a maior, ou pior, perda esperada de um portfólio, ou de uma posição em determinado instrumento financeiro, sob condições normais de mercado e dentro de um horizonte de tempo e nível de confiança estatística preestabelecidos. Deste modo, por exemplo, ao fixarmos um horizonte de tempo t e um nível de significância estatística de α% (0 < α > 1), o “valor em risco” representa a perda máxima esperada em t para um intervalo de confiança de (1 – α)%. Na prática, em termos estatísticos, para um nível de significância de α%, o Value-at-Risk é a medida representativa do valor crítico da distribuição de probabilidades de mudanças no valor de mercado dos ativos em carteira (Duffie & Pan, 1997).

1.2 Motivação

Avaliar riscos financeiros vem se revelando um tema de intensa discussão em diferentes áreas de atuação, desde os agentes de mercado propriamente ditos como os bancos e outros administradores de recursos, passando por acadêmicos e órgãos reguladores. Se do ponto de vista dos agentes de mercado, o denominador comum está na busca de soluções que minimizem seus riscos microeconômicos, reduzindo assim a probabilidade de erosão de seu capital pela via de operações mal conduzidas, pelo lado das autoridades de supervisão e regulação financeira, a preocupação está na real possibilidade de que posições demasiadamente arriscadas, assumidas no plano microeconômico das instituições financeiras, possam repercutir de maneira sistêmica, com potencial de repercussão em outros setores da economia,

3

A obtenção do Value-at-Risk, como veremos adiante, pressupõe que os ativos sejam marcados a mercado, i.e., tenham seus valores atualizados diariamente de acordo com as cotações observadas em mercados secundários líquidos. As duas ações discutidas neste trabalho são negociadas na Bolsa de Valores de São Paulo (Bovespa) e apresentaram preço de negociação para todo o período de análise.

4

como um efeito dominó do lado monetário-financeiro para o lado real do sistema econômico. O fato é que com as transformações da cena econômica mundial nos últimos vinte anos, a atividade de intermediação financeira desenvolvida pelos bancos, que até a década de setenta convivia basicamente com os riscos oriundos da concessão de créditos e da obtenção dos recursos monetários para fazer face aos pagamentos demandados por sua clientela (risco de descasamentos de prazos), passou a se defrontar com uma série de riscos de naturezas distintas. A fim de lidar estrategicamente com esses riscos, os bancos passaram a definir e criar áreas específicas para avaliação dos riscos associados às atividades cotidianas. A partir de definições criteriosas, foram sendo estruturadas áreas para o gerenciamento desses riscos, dentre as quais destacam-se as seguintes (Duarte et alli, 1999):

Risco de Mercado -> pode ser definido como uma medida numérica da incerteza relacionada aos retornos esperados de um investimento financeiro, em decorrência de variações em fatores como taxas de juros, taxas de câmbio, preços de ações e commodities. De maneira geral, o risco dos diversos instrumentos negociados atualmente nos mercados financeiro e de capitais deriva de um ou mais desses fatores primários;

Risco de Crédito -> refere-se a uma medida numérica da incerteza relacionada ao recebimento de um valor contratado, a ser pago por um tomador de um empréstimo, contraparte de um contrato ou emissor de um título, descontadas as expectativas de recuperação e realização de garantias. Pode ser subdividido em: risco de inadimplência, risco de degradação de crédito, risco de degradação de garantias, risco soberano, risco de financiador e risco de concentração (quando uma carteira apresenta parte preponderante de sua composição em crédito, estando, portanto, mais sujeita a este tipo de risco);

Risco Operacional -> está associado a uma medida numérica da incerteza dos retornos de uma instituição caso seus sistemas, práticas e medidas de controle não sejam capazes de resistir a falhas humanas, danos à infraestrutura de suporte, utilização indevida de modelos matemáticos ou 5

produtos, alterações no ambiente dos negócios ou ainda a situações adversas de mercado. Entre os diversos subitens que compõem o risco operacional, podemos citar: risco de overload (concentração em determinada área), risco de obsolescência, risco de equipamento, risco de fraude, risco de modelagem, risco de regulamentação e risco sistêmico;

Risco Legal -> diz respeito a uma medida numérica da incerteza dos retornos de uma instituição caso seus contratos não possam ser legalmente amparados por falta de representatividade por parte de um negociador, por documentação insuficiente, insolvência ou ilegalidade. Pode ser

decomposto em: risco de legislação, risco tributário e risco de contrato.

No decorrer dos acontecimentos dos últimos dois decênios do século XX, o debate acerca da questão do risco de mercado ganhou importância crescente no interior das instituições financeiras. De certa forma isso não foi surpreendente. Na esteira do rápido avanço das tecnologias de informação e de processamento de dados, combinado com os processos de integração e desregulamentação de importantes praças financeiras, o que se assistiu foi o surgimento de uma ampla gama de novos produtos negociáveis em bolsa, um enorme salto no volume de capital transacionado diariamente além-fronteiras nacionais e um deslocamento dos bancos para atividades não-tradicionais4, potencializando tanto as oportunidades de ganho quanto as possibilidades de revés para agentes econômicos operando em grande escala e sobre uma base verdadeiramente global. Frente um ambiente de elevada volatilidade de taxas de juros, de taxas de câmbio e de preços dos diversos ativos financeiros e commodities, os agentes participantes do circuito financeiro internacional tomaram e vêm tomando ciência de que elevados retornos e altos riscos são, na verdade, dois lados da mesma moeda. É nesse contexto que se insere o questionamento e a busca de um método apropriado capaz de identificar, monitorar e controlar as diversas fontes de riscos a que estão expostos os ativos em carteira, para que seja possível não somente otimizar o retorno

4

Este ponto é primordial e será discutido em 2.1.

6

para um dado patamar de risco aceitável, mas também possibilitar uma seleção subjetiva dos riscos que se está disposto a correr daqueles que se deseja evitar5. Pari passu aos supracitados processos de internacionalização dos fluxos de capitais, de desregulamentação dos mercados domésticos e do notável avanço nas tecnologias de informação e processamento de dados nos dois últimos decênios, certamente a intensificação do uso dos derivativos financeiros6 responde pela preocupação, tanto dos agentes de mercado como dos organismos reguladores, com relação à necessidade de se acompanhar minuciosamente o risco embutido na utilização destes instrumentos. Isso se deve essencialmente ao seu elevado potencial de geração e de transmissão de choques financeiros entre agentes econômicos operando em diferentes partes do mundo. Com relação a esses pontos, duas observações devem ser feitas. Em primeiro lugar, os derivativos, além de permitirem a redução e o gerenciamento dos riscos decorrentes da volatilidade dos seus ativos de referência, se apresentam também, de maneira contraditória, como fonte de riscos mais intensos. Isto é verdade tanto do ponto de vista microeconômico das instituições e empresas que os utilizam, quanto do ponto de vista macroeconômico, pelo seu elevado potencial de transmissão de choques financeiros entre mercados e entre fronteiras. Se por um lado, quando utilizados como instrumento de hedge, os derivativos atuam no sentido de reduzir o risco de preço contido nas posições em seus ativos subjacentes, por outro, ao reduzir este risco, estes instrumentos tendem a diminuir os ganhos potenciais destas posições, razão pela qual muitas destas últimas não são cobertas por posições opostas em outros mercados com temporalidade distinta, mas mantidas puramente como operações especulativas (Farhi, 1998). De fato, devido à alta alavancagem que os caracteriza, os derivativos constituem instrumentos ideais para se tentar obter ganhos especulativos e com freqüência acabam sendo empregados neste fim, algo extremamente preocupante quando considerado o volume de negócios7 com esses instrumentos e o elevado grau de

5

É importante notar que não se trata de eliminar riscos, mas sim criar condições para geri-los de maneira estratégica, uma vez que há certos tipos de risco que estão diretamente associados à ocorrência de potenciais retornos elevados e, portanto, se apresentam como um atrativo para a diversificação de carteiras de investimento. 6 Instrumentos financeiros cujo valor de negociação depende do valor de outros ativos subjacentes. 7 Segundo estimativa do Bank for International Settlements (BIS, maio de 2003), o valor nocional dos contratos negociados de derivativos de balcão alcançou no mês de dezembro de 2002 a cifra de US$ 141.7 trilhões.

7

interdependência entre os agentes que os transacionam em diferentes mercados e países. A segunda observação a ser feita, decorrente de seus atributos de complexidade e capacidade de alterar posições em tempo real, é que os derivativos contribuem sobremaneira para redução da transparência nos mercados financeiros. Na medida em que seu registro no livro contábil das instituições financeiras não reflete com precisão os riscos assumidos e, portanto, não são computados no balanço da firma (off-balance sheet risks), muitas dessas posições, especulativas ou não, assumidas por determinada contraparte, não podem ser conhecidas de antemão, o que acaba resultando em um acirramento dos riscos para todo o funcionamento do sistema (Farhi, 1998). Assim, a redução da transparência dos mercados financeiros, associada à elevada capacidade de alavancagem que caracteriza os instrumentos derivativos, contribui para aumentar a vulnerabilidade dos sistemas econômicos a riscos sistêmicos. Isto em razão não apenas do elevado potencial de transmissão de choques contido nos derivativos, mas também em virtude dos problemas que advêm da assimetria de informações, como seleção adversa e risco moral (Canuto & Lima, 1999). Sobre estas duas últimas questões, um caso ilustrativo poderia ser pensado com relação a atuação de um operador financeiro, que, ao enfrentar uma grande perda em sua carteira e ver sua reputação e seu emprego ameaçado por este prejuízo, resolve aumentar suas apostas em movimentos futuros do mercado para tentar compensar a redução anterior no capital da instituição, podendo com esta atitude conduzir a firma à falência8. Com relação a esse ponto, Farhi (1998, p.204) escreve o seguinte:

“... uma instituição financeira que por todos os critérios de análise é sólida e merecedora de crédito, pode estar às vésperas da bancarrota se suas posições especulativas assumidas forem muito elevadas numa conjuntura de preços desfavorável. Quanto maior for o peso das posições especulativas das instituições financeiras e das empresas, maiores serão os riscos potenciais envolvidos e seu eventual alcance macroeconômico”.

8

Embora não haja consenso sobre se os derivativos realmente aumentam o risco nos mercados financeiro e de capitais9, após uma série de eventos desastrosos durante a década de 90, em maior ou menor escala envolvendo operações com estes instrumentos, tanto órgãos reguladores como representantes do setor privado de vários países passaram a ensaiar propostas de controle do risco presente nestes instrumentos financeiros. Desse modo, diversos relatórios sugerindo aquilo que seriam práticas saudáveis de controle de riscos foram sendo divulgados por organismos tais como o Group of Thirty, Bank for International Settlements (BIS), International Organization of Securities Commissions (IOSCO), Derivatives Policy Group e International Swaps and Derivatives Association (ISDA). Ainda que a formulação inicial sugerida tenha sido pensada para a gestão do risco presente quando da utilização dos derivativos, rapidamente as diretrizes contidas nesses documentos técnicos foram se tornando referência igualmente válida para qualquer carteira de investimento,

independentemente desta incluir ou não aqueles instrumentos. Dentre o conjunto de recomendações de boas práticas (best practices) de gestão de risco apresentadas pelo Group of Thirty (apud Jorion, 1998), na qual a adoção de um sistema de aferição do Value-at-Risk é apenas uma das peças requeridas para o bom funcionamento da engrenagem, para o escopo de discussão deste trabalho é possível ainda citar outras como:

O Papel da Alta Gerência -> deve ser zelar pelo claro entendimento dos riscos incorridos pela instituição quando esta realizar operações com derivativos, sabendo e assumindo a responsabilidade que estas podem tanto gerar grandes retornos como também grandes perdas para a corporação;

Marcação a Mercado -> estabelece o critério para registro e avaliação contábil segundo o qual títulos públicos e valores mobiliários (incluindo instrumentos derivativos e fundos de investimento) em carteira devem ser
Na verdade, de maneira sucinta esse caso ilustrativo se inspira no episódio da falência do centenário banco inglês Barings, onde pela ação de um único operador (Nicholas Leeson) a instituição foi à bancarrota, no início do ano de 1995, tomando posições mal sucedidas em futuros do índice Nikkei 225. 9 Esta argumentação é defendida no estudo do Group of Thirty (1993), para quem a evidência empírica sugere que os derivativos apenas refletem os riscos já existentes nos mercados financeiros. Esse estudo foi conduzido por uma equipe de consultores formada por banqueiros, representantes do setor financeiro em geral e acadêmicos de renome das principais nações industrializadas do globo e acabou se transformando em um marco teórico sobre derivativos.
8

9

escriturados pelo preço de mercado verificado diariamente em mercados secundários líquidos. Essa é a técnica de avaliação que melhor mensura os valores atuais de ativos e passivos, pois incorpora quase que imediatamente no balanço da instituição as mudanças de preços observadas em mercado;

Mensuração do Risco de Mercado -> deve ser buscada através de um método consistente de cálculo diário que utilize o conceito de Value-atRisk. Quando um sistema que utilize esse conceito se encontra em funcionamento, limites de exposição ao risco de mercado podem ser buscados pela instituição financeira com base em fatores tais como tolerância a perdas ou através do reconhecimento de que maiores níveis de risco assumidos estão diretamente associados a requerimentos de capital próprio mais elevados10;

Simulações de Stress devem ser utilizadas a fim de se quantificar o risco de mercado sob condições adversas. Isto se deve ao fato de que os sistemas tradicionais de Value-at-Risk se baseiam essencialmente em condições normais de mercado, podendo, deste modo, não refletir perdas potenciais em ambientes desfavoráveis. Essas simulações de stress devem espelhar tanto os eventos históricos quanto as estimativas de movimentos futuros adversos;

Administração Independente do Risco de Mercado (middle office) que se reporte diretamente à alta gerência deve ser buscada como forma de evitar fraudes e omissão de informações de operações no front office (trading) da instituição, compatibilizando a sinergia entre este último e o back office (administrativo). Essas unidades de administração de risco independentes devem possuir autoridade para garantir o cumprimento de objetivos determinados, tais como delimitar limites de exposição, elaborar cenários de stress, mensurar o Value-at-Risk, emitir ordens de stop loss, verificar a adequação dos métodos utilizados para cálculo do valor em risco, etc.

10

Às voltas com o debate sobre controle do risco financeiro de suas operações e com a necessidade de se adequarem a um ambiente que requer soluções rápidas para lidar com o risco de mercado, algumas instituições financeiras passaram a desenvolver sistemas internos capazes de mensurar sua exposição total a perdas oriundas da volatilidade dos preços de seus instrumentos financeiros em carteira, conforme exigências e especificações próprias. Apesar de utilizarem critérios diferenciados para o dimensionamento do risco de mercado de seus ativos em carteira, os sistemas de administração de posições que foram surgindo guardavam em comum o conceito do Value-at-Risk. Ou seja, os métodos computacionais que foram sendo desenvolvidos para o cálculo do risco de mercado produziam resultados que representavam uma medida probabilística da pior perda que poderia advir de uma posição específica ou do conjunto da carteira dentro de um determinado intervalo de tempo e nível de confiança preestabelecidos. Os modelos mais conhecidos que surgiram no seio privado foram aqueles elaborados pelos bancos J.P.Morgan e Bankers Trust. Desde outubro de 1994, o banco J.P.Morgan oferece gratuitamente em sua web page o sistema que emergiria como o benchmark do mercado. Utilizando-se da análise de séries temporais para derivar estimativas de volatilidades e correlações de um amplo conjunto de instrumentos financeiros, esse método assume que a distribuição dos retornos passados é uma boa proxy para fornecer previsões de retornos futuros. Em essência, o chamado RiskMetricsTM é composto por uma série de medidas de risco e de correlação entre diversos instrumentos financeiros negociados em diferentes países, atualizadas diariamente e acessíveis pela internet através de um sistema de fornecimento de cotações em tempo real (o Compuserve). Em termos estatísticos, os dados disponibilizados representam uma matriz de variância/covariância de retornos de ativos que evolui através do tempo, podendo ser empregada por usuários em qualquer lugar do mundo, desde que estes entendam os procedimentos e utilizem um software adequado para o uso dessas informações no cálculo do risco de suas próprias posições. Talvez o fato que mais tenha chamado atenção para o RiskMetricsTM tenha sido a divulgação, sem ônus algum para o usuário, de dados cujo cálculo diário envolve custos financeiros e computacionais elevados. Com relação a esse ponto, argumentase que o J.P.Morgan agiu movido pela intenção de promover maior transparência
10

A discussão de ordem regulatória associada à questão do risco de mercado é feita em (2.3).

11

com relação à questão do risco de mercado, disponibilizar uma ferramenta de administração de risco para usuários potencias incapazes de arcar com os custos de desenvolvimento de um sistema similar desde os estágios iniciais e ainda estabelecer sua metodologia como o padrão da indústria (Jorion, 1998: p.36). Entretanto, devese ressaltar que tampouco sua adoção é unânime, principalmente em virtude da falsa ilusão de segurança que seu uso pode suscitar. Isto porque, as correlações intermercados, calculadas sobre bases históricas e sob a premissa de normalidade condicional dos retornos de diferentes ativos financeiros, podem de maneira súbita se alterar profundamente em momentos de stress financeiro, algo determinante para romper com as bases habituais, ou de normalidade, de comportamento dos agentes de mercado com relação às suas decisões sobre esses instrumentos (Farhi, 1998). Contudo, faz-se importante o reconhecimento da atitude pedagógica do J.P.Morgan em sensibilizar os participantes dos mercados financeiro e de capitais para a necessidade de lidar com um ambiente de alta complexidade através da utilização de instrumentos de gestão de risco de posições. De fato, o surgimento do RiskMetricsTM, bem como a aceitação das limitações presentes nesta metodologia, engendrou posteriormente um amplo debate sobre o risco de mercado, que, por sua vez, acabou por suscitar o desenvolvimento de novos sistemas de gestão de risco por bancos rivais. Esse foi o caso do modelo RAROC 2020TM (Risk Adjusted Return on Capital 2020), do Bankers Trust, apresentado no início de 1995. Resultado de mais de uma década de trabalho e pesquisa em matéria de gestão de riscos e alocação eficiente de capital, o RAROCTM 2020 apresentou elevado grau de sofisticação, integrando a administração de risco com projeções de volatilidade, possibilitando, ainda, incorporar ativos que não apresentavam distribuição de seus retornos de modo normal ou ainda aqueles instrumentos com retornos não-lineares, como opções. O objetivo era produzir, em termos agregados, uma medida do retorno dos ativos financeiros da instituição corrigida pelos riscos assumidos. A metodologia do Bankers Trust compreende quatro passos importantes. O primeiro consiste em decompor em riscos elementares os diversos riscos complexos incorridos no funcionamento da instituição financeira, classificando-os em um número finito de categorias que se encontram em diversas combinações em cada instrumento financeiro, como risco de taxa de juros, risco de taxa de câmbio, risco de liquidez, risco de crédito, etc. Isto feito, cada um desses grupos é quantificado e, 12

posteriormente, ajustado por um índice de mercado calculado a partir de sua volatilidade histórica. Finalmente, define-se o requerimento de capital necessário para proteger o banco de uma perda significativa11. Um ponto importante a destacar é que o RAROCTM 2020 é aplicável tanto a ativos ditos lineares, i.e., aqueles cujo valor varia de modo diretamente proporcional aos elementos de risco que os compõem, como também para o caso de instrumentos derivativos, como os diversos tipos de opções, os quais apresentam perfis de risco e de lucro não-lineares. No caso destes últimos, a determinação do montante linear de capital não é suficiente para se avaliar o risco potencial dessas posições, sendo necessário incluir nos cálculos algumas técnicas de simulação para incorporar riscos adicionais como o Vega (mudança de valor de uma opção devido a uma mudança na volatilidade do ativo objeto) e o Gamma (mudança não-linear de valor devido a mudanças no valor do ativo subjacente). Para esses riscos, o Bankers Trust aplica uma técnica conhecida na literatura estatística e por administradores de carteira como simulação de Monte Carlo (esta é a parte não comercializada do RAROCTM 2020), a qual consiste basicamente em um exercício de geração de uma variedade de cenários aleatórios para o valor de uma carteira em uma data futura de interesse, podendo o Value-at-Risk ser obtido a partir da distribuição dos valores simulados para um dado nível de confiança estatística. No decorrer do último qüinqüênio da década de vinte, muito se pôde observar em termos do desenvolvimento de técnicas estatísticas aplicadas ao campo das finanças, mais especificamente à análise e gestão do risco de mercado. A partir das experiências do RiskMetricsTM e do RAROCTM 2020, uma grande variedade de metodologias com premissas e características bastante distintas foram se tornando possíveis em virtude da importância que esse assunto adquiriu para o bom funcionamento das instituições financeiras e do próprio sistema financeiro internacional. Apesar da diversidade de metodologias que surgiram desde o aparecimento do RiskMetricsTM, é importante reconhecer que não é possível, ou ao menos não é correto, afirmar com convicção que uma técnica é totalmente superior à outra e, tampouco, que a utilização de técnicas de aferição do risco de mercado seja capaz de evitar situações de perdas financeiras para as instituições. Ao invés disto, faz-se
Nesse sentido, o RAROCTM aproxima-se das propostas recentes sugeridas pelo Comitê Basiléia, as quais se baseiam na constituição de reservas de capital próprio proporcionais aos riscos incorridos pela
11

13

necessário uma compreensão ampla da importância de seu emprego como uma ferramenta útil, levando-se em conta um entendimento abrangente das vantagens e desvantagens implícitas em cada técnica de cálculo do Value-at-Risk. É considerando esses pontos que o presente trabalho buscará apresentar e discutir três abordagens distintas para a aferição do risco de mercado de duas séries de ações, procurando identificar e explicar as diferentes premissas envolvidas nos métodos paramétricos e não-paramétrico selecionados para o cálculo do Value-at-Risk.

1.3 Organização do trabalho

Em seguida a este capítulo introdutório, o trabalho está estruturado em mais cinco capítulos. No capítulo 2 são descritos alguns aspectos qualitativos relacionados à questão do risco de mercado. O foco está na maneira pela qual as transformações nas finanças internacionais, aumento dos riscos financeiros em escala global e as mudanças observadas nos marcos regulatórios existentes estão associados. A intenção é buscar entender, enquadrar e justificar a necessidade do uso de instrumentos de administração de posições em um contexto histórico marcado pela presença de uma ampla gama de alternativas de aplicação financeira ao redor do globo, muitas das quais envolvendo alto risco a seus detentores. O capítulo 3 está voltado inicialmente à apresentação formal do conceito estatístico do Value-at-Risk e à elucidação da dicotomia existente entre abordagens paramétricas e não-paramétricas de estimação do risco de mercado. Feito esse esclarecimento, passa-se, então, à discussão dos modelos selecionados para o exercício empírico realizado ao final do trabalho. Esses foram divididos segundo a hipótese utilizada sobre a distribuição dos retornos, i.e., entre métodos paramétricos e não-paramétricos. Na classe dos métodos paramétricos, foram selecionadas duas alternativas para cálculo do Value-at-Risk: um modelo de variância não-condicional e outro de variância condicional (o GARCH – Generalized Autoregressive Conditional Heteroscedasticy). Abandonando a conjectura de que a distribuição de probabilidades dos retornos é conhecida, e já sob a guarda de um método nãoparamétrico, a técnica da Simulação Histórica de obtenção do Value-at-Risk é, então, apresentada e discutida em detalhes.
instituição. Esse ponto é discutido no item (2.3).

14

No capítulo 4, como de praxe no estudo de séries temporais, é empreendida a análise estatística das duas séries de ações utilizadas no exercício empírico ao final do trabalho, buscando-se, com isto, descrever suas características mais relevantes. O principal objetivo é testar as premissas de normalidade e independência dos retornos financeiros. Antes, a fim de prover esse exercício com um instrumental de análise adequado, no item (4.1) são descritos alguns fatos estilizados (stylized facts) comuns às séries temporais financeiras. Na seqüência, nos itens (4.2) e (4.3), são analisadas as seguintes séries de ações para o período de 02/01/1997 a 02/01/2004 (total de 1729 observações): Petróleo Brasileiro S.A. Petrobrás (PETR4) e Companhia Vale do Rio Doce (VALE5). Um último ponto a se destacar diz respeito à forma de se estimar, comparar e apresentar os resultados. O capítulo 5 trata dessas questões. No item (5.1), estão descritos os passos seguidos em cada uma das metodologias para a estimação do VaR das ações da Petrobrás e Cia. Vale do Rio Doce. Em seguida, no item (5.2), discute-se o critério para avaliação do desempenho desses modelos, o que será feito a partir da utilização do teste para proporção de falhas proposto por Kupiec (1995). Por último, no item (5.3) são apresentados os resultados das estimativas do risco de mercado para essas duas ações, os quais, além de uma visualização gráfica (itens 5.3.1 e 5.3.2, respectivamente, para a ação da PETR4 e VALE5), são também disponibilizados de maneira resumida em tabelas comparativas no item (5.3.3). Finalmente, o capítulo 6 é reservado à conclusão e considerações de ordem geral relacionadas à questão do risco de mercado. Nesse ponto, intenta-se articular os resultados empíricos obtidos aos conceitos teóricos apresentados ao longo do desenvolvimento deste trabalho.

15

2 O Risco de Mercado Sob uma Abordagem Qualitativa

2.1 Transformações financeiras e a questão do risco de mercado

Ainda que com traços específicos e temporalidades distintas em cada um dos diferentes mercados e países, a evolução das finanças a partir do início da década de 80 tem sido marcada pela combinação do processo de desregulamentação, realizado por autoridades governamentais, e pelo surgimento de inovações, implementadas pelos agentes de mercado, resultando em um amplo movimento de liberalização financeira em escala internacional. Entre os subprodutos dessa liberalização, a passagem de um sistema comandado pelos bancos para um sistema determinado pelos mercados de capitais (market led finance) contribuiu sobremaneira para o declínio da tradicional atividade bancária de concessão de crédito e para o direcionamento dos bancos para operações típicas de mercados de capitais. Tais aspectos são fundamentais para explicar um maior grau de exposição a riscos por parte dos bancos, na busca por maiores retornos, e pela generalização entre estes de uma verdadeira cultura de gestão de riscos financeiros. A seguir, são apresentadas, de maneira sucinta, algumas das principais transformações financeiras verificadas nos últimos dois decênios do século vinte, com vistas para a maneira como estas foram capazes de semear novos campos de atuação para os bancos, notadamente mais arriscados do que sua clássica atividade de conceder créditos, e para a forma encontrada de se lidar com este contexto financeiro marcado por elevada volatilidade dos ativos e interdependência entre os agentes econômicos. Na segunda metade da década de setenta, o mundo testemunhou uma enorme transferência de riqueza dos países consumidores de petróleo para os países-membros da OPEP (Organização dos Países Exportadores de Petróleo). Parte significativa dessa massa de riqueza em dólares, oriunda dos expressivos superávits em Transações Correntes dos países da OPEP, foi direcionada para grandes bancos (em sua maioria norte-americanos) situados em território norte-americano ou em centros financeiros off-shore12. Em uma das principais instâncias off-shore, o “euromercado de moedas” se destacou pelo enorme dinamismo que foi capaz de conferir ao processo de alocação desses recursos em diferentes continentes, naquilo que ficou conhecido

17

posteriormente como “reciclagem dos petrodólares”. Foi nesse período que o endividamento de diversas empresas e países em desenvolvimento com o segmento dos grandes bancos internacionais cresceu de maneira significativa. Embora muitos desses grandes “bancos globais” tivessem recebido o aval de suas respectivas autoridades monetárias para aumentar suas exposições ao risco soberano de alguns países em desenvolvimento, as conseqüências desta política não puderam ser totalmente previstas. Como conta a história econômica, frente um contexto de abundância de dólares no mercado internacional13 e de aceleração do processo inflacionário nos Estados Unidos, começaram a surgir dúvidas por parte dos agentes econômicos com relação ao valor e, mais do que isso, a figura do dólar americano enquanto standard universal. Tal fato exigiu do Federal Reserve (FED) uma atitude pró-ativa no sentido de preservar o papel preponderante do dólar nas trocas internacionais e enquanto reserva segura de valor14. A resposta do FED não tardou. Em outubro de 1979 a taxa de juros norteamericana apresentou uma elevação sem precedentes, sinalizando ao mundo os novos tempos da política econômica internacional. O período que se seguiu desde então foi marcado por flutuações das taxas de câmbio, volatilidade das taxas de juros e grandes transformações financeiras (surtos inovativos), acompanhadas por ondas de financiamento, concentração de capitais, supressão dos controles sobre fluxos financeiros e forte integração dos mercados financeiros nacionais em uma grande rede financeira internacional. Cabe um parêntese sobre a causalidade expressa entre a mudança na política econômica norte-americana15, aumento do déficit público e a aceleração das transformações financeiras, pois é neste momento histórico que ocorre o grande salto
12

Essas localidades se destacavam por apresentar um baixo grau de regulação financeira. Os bancos norte-americanos aí instalados não estavam sujeitos a grande parte das normas restritivas delegadas pelo Federal Reserve Bank - FED (o banco central dos Estados Unidos). 13 Tanto em virtude da distribuição dos “petrodólares” pelos grandes bancos ao redor do globo, como dos enormes desequilíbrios do Balanço de Pagamentos norte-americano verificados durante os anos 70. 14 Sobre este ponto, consultar Belluzzo (1995). 15 Fundamentalmente, a reviravolta na concepção de política econômica no ano de 1979 apoiou-se numa visão liberal-conservadora do establishiment norte-americano, para quem o excesso de ativismo das políticas fiscal e monetária das décadas anteriores teria trazido ineficiência ao processo de inversão produtiva do setor privado. Como solução a esse impasse, o Estado deveria se restringir a estabelecer uma regra consistente e confiável para o crescimento dos agregados monetários de modo que os agentes racionais pudessem fazer livremente suas escolhas à distância da influência desestabilizadora de governos discricionários. No bojo dessa inflexão de pensamento econômico está o aparecimento da doutrina monetarista, apregoando um controle rígido sobre oferta monetária e a disponibilidade de crédito da economia, fixando metas contracionistas para as reservas bancárias e forçando os bancos a reduzirem a disponibilidade de recursos para terceiros. O resultado desse enrijecimento da política monetária é, obviamente, uma alta das taxas de juro.

18

da internacionalização do capital financeiro nos países centrais. Com a crescente deterioração das finanças públicas no início dos oitenta, num primeiro momento nos Estados Unidos e posteriormente nos demais países industrializados – tanto em função da queda de arrecadação que acompanhava o período recessivo, quanto do juro que incidia sobre os títulos públicos utilizados no open market para esterilizar entradas de capitais -, os Tesouros Nacionais não puderam mais contar única e exclusivamente com o financiamento da poupança interna de seus investidores domésticos. Era necessário ampliar a liberdade para que investidores internacionais adquirissem os títulos públicos domésticos, o que ensejava um movimento de liberalização e modernização de seus sistemas financeiros para satisfazer suas próprias necessidades de financiamento (PLIHON, 1996: p.95). O papel decisivo nesse processo coube à pioneira desregulamentação do sistema financeiro norteamericano (deflagrada na primeira metade da década de oitenta) que, associada aos processos de desintermediação financeira (securitização) e institucionalização da poupança, foi se impondo como paradigma aos demais países. Nesse contexto, o acesso de investidores estrangeiros a outros mercados foi se tornando possível graças aos avanços nas tecnologias de informática e telecomunicações, que contribuíram decisivamente para o desenvolvimento de uma nova dinâmica de relações entre países, mediante o barateamento do custo de transmissão de informações e da rapidez no processamento de dados. A possibilidade de conectar computadores e terminais em escala internacional, compondo uma rede de telecomunicação transfronteiras e em tempo real16, viabilizou a evolução de uma grande variedade de produtos e serviços de natureza financeira e a paulatina integração dos vários mercados domésticos no plano das finanças internacionais. Feito esse parêntese, retomemos a discussão do período que se seguiu à guinada na política monetária norte-americana, a fim de compreender a maneira pela qual sua influência perturbadora estimulou mudanças significativas nos marcos de funcionamento dos mercados financeiros e capitais ao redor do mundo. Como é sabido, as conseqüências dessa política para os países endividados em dólares foram avassaladoras. Muitos tiveram de reescalonar suas dívidas repetidamente ao longo da década de oitenta. Com efeito, os grandes bancos credores se defrontaram com uma
16

A pioneira rede mundial SWIFT (Society for Worldwide Interbank Financial Telecommunications), criada em 1973 pelos 270 maiores bancos da época, sob um padrão internacional de mensagens XML, foi concebida para realizar transferências financeiras com garantia e segurança entre seus bancos membros.

19

repentina deterioração de suas carteiras de crédito ao mesmo tempo em que buscavam reduzir ao mínimo, e o mais rápido possível, suas exposições nos países em desenvolvimento para se voltarem a seus clientes corporativos tradicionais localizados em seus mercados domésticos. Esses acontecimentos, associados à elevada taxa de juros vigente, acarretaram importantes implicações para o funcionamento dos bancos comerciais norte-americanos. Em primeiro lugar, mediante o elevado risco de crédito embutido em suas carteiras, os grandes bancos comerciais norte-americanos passaram a enfrentar dificuldades no levantamento de fundos para sua tradicional atividade de intermediação financeira, realizada pela via da captação de recursos de curto prazo dos depósitos à vista e alocação destes em empréstimos de médio e longo prazo. Uma explicação plausível para essa questão é que seus agentes depositantes passaram a demandar uma maior remuneração sobre seus depósitos para compensar o risco associado à manutenção de sua riqueza em instituições com capacidade de solvência duvidosa. No entanto, essa demanda por maiores garantias em termos de retorno por parte dos depositantes esbarrava em uma questão de ordem legal, qual seja, a existência de tetos de rendimento estipulados no âmbito da Regulation Q, a qual, dispunha, entre outros, sobre limites máximos legais para os rendimentos dos depósitos à vista e de poupança dos bancos comerciais norte-americanos. De fato, a existência desses limites legais impunha um ônus aos bancos comerciais no que diz respeito ao levantamento de passivos líquidos. Isto porque, a poupança privada, ávida por rendimentos mais elevados, foi sendo gradativamente canalizada para novas alternativas de aplicação mais rentáveis oferecidas pelos chamados bancos de investimento (securities houses), uma vez que estes últimos não compartilhavam das mesmas regras restritivas verificadas na atividade bancária tradicional17 (Edwards & Mishkin, 1995). Neste sentido, o explosivo crescimento do mercado de fundos de investimento (money market mutual funds), administrados pelas securities houses, foi fundamental para desafiar e, em grande alcance, enfraquecer a capacidade de captação de depósitos à vista dos bancos comerciais,

Atualmente com sede em Bruxelas, a rede SWIFT conecta bancos e outras instituições financeiras em mais de sessenta países. 17 Nos Estados Unidos, até 1999, o Glass-Steagal Act de 1933 ainda separava legalmente as funções dos bancos comerciais e bancos de investimento. No entanto, segundo Canals (apud Canuto & Lima, 2000), na prática, interpretações para sua superação já haviam sido oferecidas pelos reguladores norteamericanos na medida em que estes autorizaram os bancos comerciais a operar com securities através da constituição de filiais para este fim a partir de meados dos anos oitenta.

20

pois estes fundos conciliavam retornos financeiros mais atrativos com a opção de resgates à vista ou em curtíssimos prazos para seus clientes (Canuto & Lima, 2000). O segundo aspecto diz respeito ao fato de que os bancos comerciais começaram também a enfrentar dificuldades do ponto de vista dos ativos de seu balanço patrimonial. Por um lado, a voraz competição dos bancos por clientes corporativos tradicionais, em um contexto recessivo, acabou por pressionar as taxas dos financiamentos para baixo a ponto dos spreads não viabilizarem adequadamente a remuneração do capital dos bancos para essas operações. Além disso, a disseminação de uma nova alternativa de financiamento para as grandes empresas, a qual passava pela emissão de dívida corporativa diretamente junto ao mercado de capitais18, sem a participação dos bancos comerciais neste processo19, terminou por enfraquecer ainda mais a capacidade destes últimos de “criar” ativos para seu balanço através da ampliação de suas carteiras de crédito. Essa nova alternativa de financiamento das empresas sem a participação dos bancos comerciais (leia-se securitização) também veio à reboque da

desregulamentação dos sistemas financeiros dos países centrais em um contexto de elevadas taxas de juros vigentes. As grandes empresas, enfrentando o brutal encarecimento do funding de suas operações, passaram a exercer pressão para que se construísse um ambiente institucional que propiciasse sua captação de recursos diretamente junto ao mercado de capitais. As chamadas operações de securitização20 consistiam, então, na emissão de valores mobiliários (em especial commercial papers e debêntures, ambos instrumentos de dívida corporativa de curto e médio prazo) no mercado de capitais como alternativa à utilização de dívida bancária.

Conseqüentemente, os passivos dessas empresas passaram a consistir mais de valores mobiliários (especialmente de títulos de dívida corporativa) em circulação no mercado de capitais e menos de empréstimos bancários. A rápida disseminação da securitização enquanto alternativa de financiamento foi minando as bases nas quais os bancos comerciais atuavam, como agentes preponderantes, na concessão de crédito a terceiros. Ao mesmo tempo, os bancos de
18 19

Securitização. Desintermediação financeira. 20 O termo securitização tem raiz na palavra inglesa security, que em português significa valor mobiliário (para ver quais instrumentos financeiros são considerados valores mobiliários consultar Lei 6385/1976 e Lei 10303/2001, que altera a primeira). O conceito pode ser entendido como a prática de estruturar e vender investimentos negociáveis de forma que seja distribuído amplamente entre diversos investidores do mercado o risco que normalmente seria absorvido por um só credor (no caso os bancos, por isso pode também ser entendida como desintermediação financeira).

21

investimento (securities houses), responsáveis pela estruturação dessas operações de emissão de securities junto aos mercados de capitais, iam a passos largos ganhando espaços até então ocupados pelos bancos comerciais. Como catalisador desse processo, os avanços nas tecnologias de informação agilizaram tanto a tomada de recursos pelas empresas diretamente do público quanto decisões de corporações, instituições financeiras e agências de rating21 com relação à qualidade dos ativos financeiros ofertados no mercado. Conforme se dava o crescimento do mercado de securities, a

institucionalização da poupança privada, centrada na rápida proliferação da figura dos money market mutual funds, foi se revelando um mercado relativamente pronto para absorver a grande oferta de papéis que ia surgindo, principalmente aqueles que apresentavam perfil de elevada liquidez e de curto prazo. Obviamente, isso também contribuía decisivamente para o enfraquecimento do papel dos bancos comerciais enquanto provedores de recursos a grandes grupos corporativos. No bojo da intensificação da securitização e das forças competitivas que impactaram negativamente a lucratividade de sua tradicional atividade de prover crédito a terceiros, os bancos comerciais norte-americanos passaram, então, a exercer pressão para que a desregulamentação financeira (entenda-se relaxamento das normas) se estendesse à possibilidade destes operarem carteira própria de títulos e valores mobiliários e também de securitizarem suas carteiras de crédito. Com relação a esse último ponto, a regra de capitalização compulsória contida no primeiro Acordo da Basiléia de 1988, a qual estabelecia uma relação de proporcionalidade direta entre o risco de crédito das carteiras dos bancos e os requerimentos de capital próprio para fazer frente a este risco, incentivava ainda mais os bancos a aumentarem a pressão em torno da possibilidade de securitizarem suas carteiras de crédito (securitização de recebíveis22) e, deste modo, reduzirem seus encargos de capital frente o risco.

21

No processo de emissão de valores mobiliários junto ao mercado de capitais, as agências de rating desempenham papel fundamental para o balizamento do custo dessas operações, na medida em que avaliam o risco de crédito com base em parâmetros como, por exemplo, histórico de reputação da empresa, estrutura de fluxo de caixa, estrutura jurídica da operação, etc. 22 Processo pelo qual um grupo relativamente homogêneo de ativos é “empacotado” e convertido em títulos mobiliários, ou seja, passíveis de negociação no mercado de capitais. É, portanto, uma forma de transformar ativos individuais relativamente ilíquidos e localizados no balanço de um banco em títulos mobiliários líquidos e negociáveis, transferindo os riscos associados à posse desses ativos para os investidores que os compram no mercado de capitais. Esses títulos são caracterizados por um comprometimento de pagamento futuro, de principal e juros, a partir de um fluxo de caixa proveniente de um grupo de ativos selecionados.

22

Assim, tendo em vista o relaxamento das normas regulatórias que versavam sobre o tema, aos bancos foi permitido “securitizar” ativos anteriormente ilíquidos, i.e., órgãos reguladores consentiram o lançamento e a negociação, em mercados secundários, de títulos representativos de empréstimos bancários até então nãonegociáveis. Neste contexto, observou-se uma injeção de capital nos grandes bancos comerciais graças à securitização de suas carteiras de crédito. De posse dessa liquidez e frente um ambiente de flexibilização do aparato regulatório, os grandes bancos comerciais passaram, em seguida, a atuar em campos de atividades potencialmente mais lucrativos, e, diga-se de passagem, também mais arriscados, como dealership de derivativos (operações off-balance sheet), suportes de liquidez para grandes clientes da securitização e financiamento de instituições altamente alavancadas, entre as quais se encontram os especulativos hedge funds (Mendonça, 2001). Em suma, face o aumento da competição na intermediação financeira e em busca de melhoria na remuneração de seu capital, tanto a procura por novos produtos quanto a inserção em áreas de atuação de maior risco fizeram parte da estratégia dos bancos comerciais para recuperar o espaço perdido para as finanças securitizadas. É a partir desse momento histórico que o segmento bancário cruza em definitivo a tradicional atividade de fornecimento de crédito a terceiros para agora também se guiar por uma lógica de ganho através da compra e venda de ativos junto aos mercados financeiros e de capitais, arbitrando com a diferença entre os preços dos ativos e buscando lidar estrategicamente com os riscos financeiros mais acentuados associados a esta atividade. Não obstante essas transformações na intermediação financeira terem reduzido os custos de transação para tomadores de recursos, melhorado a circulação de informações, ampliado os meios de gerenciamento de liquidez e ainda criado mecanismos para uma distribuição mais racional do risco entre os agentes participantes do mercado, como contrapartida, apresentaram uma elevação significativa do potencial instabilizador das finanças decorrente de sua dinâmica de ajuste dos preços dos ativos financeiros (Mendonça, 2001). Isto porque, em diferentes localidades do globo, os preços dos diversos ativos negociados passaram a apresentar um comportamento altamente volátil, na medida que passaram a estar sujeitos a processos contínuos de avaliação, reavaliação e negociação em mercados secundários que, por sua vez, eram influenciados diretamente por oscilações observadas em taxas de câmbio e de juros locais e internacionais. Mais que isso, o preço dos ativos 23

financeiros passou a interagir diretamente com os acontecimentos observados nas principais variáveis macroeconômicas dos países desenvolvidos, com impactos imediatos sobre o valor das carteiras de investimento e até mesmo sobre o patrimônio das instituições financeiras. Com o adensamento da pirâmide de ativos financeiros e a crescente movimentação destes papéis pelas carteiras de investimento das instituições financeiras, nas chamadas operações de tesouraria, os preços destes instrumentos financeiros passaram, então, a ser regidos tanto por informações pertinentes à sua característica em particular (como por exemplo, o fluxo de caixa prometido) quanto, em grande medida, por ondas de otimismo e pessimismo atribuídas pelos traders em relação a atributos qualitativos e quantitativos que evoluem no tempo. Ou seja, as expectativas desses agentes sobre eventos futuros, bem como o impacto destes em sua carteiras, passaram a apresentar uma influência decisiva no valor presente dos ativos negociados ao redor do globo. Mediante a lógica de arbitrar através de ordens de compra e venda de ativos e de se antecipar a movimentos de preços futuros, a alternância nas expectativas dos traders reflete, então, em altas e baixas nas cotações desses ativos. Essa instabilidade intrínseca, também chamada de risco de preço ou de mercado, é exacerbada em períodos de crise de confiança (situações de stress financeiro) em determinado título ou mercado, em que comportamentos miméticos relacionados à possibilidade de inadimplência (risco de crédito elevado) impulsionam uma fuga generalizada de posições, minguando a liquidez23 e desencadeando uma enorme espiral deflacionista. Não poucas vezes, essas reversões bruscas nas expectativas estendem seus efeitos perturbadores sobre ativos e mercados aparentemente não correlacionados ao epicentro de determinada crise financeira, dando início a uma corrida por liquidação de posições (principalmente quando se trata da posse de ativos localizados em “mercados emergentes”) para cobrir prejuízos em outras localidades. Em geral, esse comportamento se traduz em quedas vertiginosas de cotações e em queima de enormes volumes de capital em diferentes instituições localizadas em diversas instâncias financeiras ao redor do globo.

23

A liquidez de determinado ativo ou mercado está diretamente associada à confiança dos agentes. Perdas nesta ou expectativas negativas sobre sua existência podem levar, e geralmente levam, à liquidação de posições e fuga para instrumentos considerados seguros (flight to quality), desencadeando quedas bruscas nos preços dos ativos e até mesmo situações de pânico financeiro.

24

A fim de tentar lidar com esses episódios de movimentos adversos dos preços de seus instrumentos em carteira, conforme os investimentos em ativos financeiros foram se tornando cada vez mais líquidos e à medida que os avanços tecnológicos na área de processamento de dados foram se difundindo entre os agentes de mercado, importantes mudanças nas práticas de gestão do risco financeiro das instituições ligadas ao funcionamento dos mercados financeiros e de capitais puderam ser observadas. Particularmente, a possibilidade de precificar ativos em carteira e elaborar relatórios cada vez mais freqüentes e acurados dos ganhos e perdas financeiras fez com que um grande número de instituições financeiras passasse a administrar seu retorno financeiro sob uma perspectiva de marcação a mercado (mark-to-market) de suas posições ativas e até mesmo passivas. A grande questão acerca dos esforços empenhados pelas instituições em precificar os instrumentos em carteira segundo valores observados no cotidiano de funcionamento dos mercados está no conceito utilizado de retorno financeiro de um ativo. Este pode ser definido como uma função direta dos rendimentos (juros sobre capital, dividendos etc.) recebidos ao longo de um determinado período e também da mudança no valor de sua cotação sob um dado horizonte de tempo. O acompanhamento do sentido da “variação de preços” é, assim, fundamental não somente para se construir a função de retornos de um ativo ou do conjunto de instrumentos que compõem um portfólio, como também para espelhar a real situação das posições de uma carteira de investimento. Atentas para esse fato, diversas instituições financeiras, aconselhadas por órgãos de supervisão e regulação, passaram a abandonar princípios contábeis em que suas atividades eram reportadas segundo uma base acumulada no tempo - accrual accounting, na qual as mudanças nas condições de mercado (preços e taxas) manifestam-se muito vagarosamente no exercício de escrituração - para se dedicarem à marcação a mercado de suas posições. Vale dizer que, em geral, essa mudança espelhou maior volatilidade na contabilização dos retornos das instituições, o que, contudo, não deve ser confundido necessariamente com um aumento na volatilidade dos mercados, mas como um reflexo direto dos movimentos das cotações dos ativos negociados nos mercados financeiros nos relatórios periódicos das posições em carteira (J.P.Morgan & Reuters, 1996). A partir da implementação da técnica do mark-to-market, o registro dos lucros ou prejuízos das aplicações nos balanços financeiros alterou-se significativamente, 25

afastando-se dos procedimentos contábeis em que ganhos ou perdas são reportados segundo uma base de resultados acumulados no tempo (accrual basis, i.e., transações são escrituradas por seus custos históricos acrescidos ou subtraídos do montante de ganho adicionado a estas operações até o momento de divulgação dos resultados do exercício financeiro) e aproximando cada vez mais de uma prática de atualizar em base diária (no limite on line real time) o valor dos instrumentos financeiros em carteira de acordo com os resultados verificados nos mercados alvo. Com efeito, o imperativo dos administradores de carteira em dispender atenção especial à questão da volatilidade dos mercados de referência ensejou o surgimento de práticas para se tentar quantificar o potencial de mudanças nas condições de mercado (preços e taxas) sobre o valor de suas posições. Conseqüentemente, através da implementação de sistemas de monitoração do risco de mercado, esses agentes passaram a estimar a perda potencial em um dado horizonte de tempo para cada posição ou para o conjunto de todo o portfólio – o chamado valor em risco (Value-at-Risk). Nas duas últimas décadas do século vinte, junto ao notável crescimento da “indústria financeira” e à rápida difusão de diferentes índices para avaliação de performances de investimentos em ativos financeiros, esforços vêm sendo empreendidos no desenvolvimento de métodos capazes de medir o risco de mercado em bases cada vez mais acuradas. Como resultado, diferentes instituições financeiras têm buscado integrar a gestão do risco de mercado em sua filosofia de gerência, particularmente, através da implementação de sistemas de Value-at-Risk. Nesse contexto, a busca pela padronização de medidas com o propósito de quantificar o risco de mercado trouxe à baila pelo menos duas formas de se fazê-lo. A primeira refere-se à análise de cenários, onde o ativo ou o conjunto do portfólio é reavaliado sobre diferentes preços e taxas de mercado escolhidos arbitrariamente pelos gestores da carteira, não necessariamente requerendo o uso de probabilidades ou modelos estatísticos para este fim. Em virtude de ser necessária a formulação de premissas demasiadamente subjetivas sobre a trajetória de preços e taxas futuras, a análise de cenário não será abordada para o cômputo de geração do Value-at-Risk neste trabalho. Contudo, vale dizer, essa abordagem é de grande importância, principalmente em se tratando de testar condições de mercado em bases não convencionais (stress testing), em que o passado não é um bom parâmetro para se avaliar eventos futuros (por exemplo, a possibilidade de crash no mercado após períodos de relativa calmaria ou normalidade). 26

Uma segunda maneira de se trabalhar o conceito de Value-at-Risk procura avaliar o risco de mercado através da utilização de técnicas estatísticas. Nesta, o risco de mercado deriva de um conjunto de volatilidades e correlações entre ativos em carteira e envolve a concepção de se tentar prever a distribuição dos retornos de um ativo ou portfólio usando probabilidades e modelos estatísticos. Conforme já dito na introdução deste trabalho, há maneiras distintas de se trabalhar essa estimativa, sendo importante o reconhecimento da pluralidade de técnicas existentes e a compreensão dos prós e contras das premissas embutidas em cada um dos diferentes métodos. A seguir, o item (2.2) busca oferecer um panorama geral dos fundamentos da utilização do Value-at-Risk, com vistas para seus elementos e características fundamentais, bem como para as limitações e atrativos contidos no uso desta ferramenta de análise.

2.2 O Value-at-Risk enquanto ferramenta de análise do risco de mercado

O Value-at-Risk é usualmente definido como sendo uma medida, em unidade monetária corrente24, representativa da maior perda possível, em condições normais de mercado, de um ativo ou portfólio, dentro de um intervalo de confiança estatística e horizonte de tempo pré-definidos. Sua obtenção envolve duas etapas a serem percorridas. Num primeiro instante, todas posições devem ser marcadas a mercado. A partir disto, é então possível que a variabilidade futura desses valores de mercado seja estimada através de diferentes metodologias. Abaixo são discutidos aspectos relacionados a esses dois momentos, fundamentais em se tratando do cálculo do Value-at-Risk. Marcar posições ativas e passivas a mercado significa manter estes registros contábeis ajustados aos valores efetivamente praticados pelo mercado, i.e., para aqueles instrumentos financeiros com elevado volume de negociação diária, a marcação a mercado é feita segundo preços e taxas correntes observados em mercados secundários líquidos. A hipótese subjacente fundamental derivada dessa prática é que marcar a mercado as posições em carteira equivale a liquidar o ativo ou passivo assim marcado. Isto porque, ao se adotar tal procedimento, ganhos e perdas observados com relação à flutuação do valor ou preço de mercado referencial são imediatamente reconhecidos como ganho (lucro) ou perda (prejuízo) (Nygaard, 2001).

27

No entanto, vale dizer, a marcação a mercado acaba não sendo adequada em todos os casos, já que a hipótese de liquidação não é sempre válida. Assim, na ausência de um mercado secundário líquido para um instrumento financeiro específico (ou para um conjunto de ativos), não há valores de mercado confiáveis, sendo possível, neste caso, para fins de cálculo do Value-at-Risk, recorrer a um procedimento conhecido como “estrutura de mapeamento”. Esta técnica consiste em estabelecer posições equivalentes para ativos considerados não-líquidos ou decompôlos em partes nas quais existam preços para estes atributos em mercados secundários. Por exemplo, a metodologia RiskmetricsTM do banco J.P.Morgan faz uso de um método de mapeamento “referencial”, a qual busca selecionar um conjunto de ativos referência (como moedas mais negociadas, índices das principais bolsas do mundo, vértices fixos da curva de juros, etc.) para o qual as posições em todos os outros ativos são mapeadas, possibilitando, deste modo, traduzir posições em ativos ditos não-líquidos em posições sintéticas nos ativos de referência (Valls Pereira, 2001; J.P.Morgan & Reuters, 1996)25. Além desse caráter recursivo, uma grande vantagem verificada no uso do “mapeamento” é que este reduz o número de volatilidades e correlações a serem calculados no cômputo de determinação do Value-at-Risk de grandes portfólios, na medida em que é capaz de criar grupos de ativos com características em comum, reduzindo a dimensão da matriz de covariância e facilitando a implementação do método escolhido para estimação do risco de mercado (Arcoverde, 2000). Após a marcação a mercado dos instrumentos em carteira, a segunda etapa do procedimento de cálculo do valor em risco consiste em se estimar o potencial de mudanças nos valores futuros (risco de mercado) das posições, decorrentes de variações esperadas em preços e taxas. Isto pode ser feito tanto a partir da elaboração de cenários específicos e subjetivos (como é o caso dos testes de stress) quanto através do uso de técnicas de estimação de volatilidades e correlações entre ativos em carteira. Dentro dessa segunda alternativa, há diferentes maneiras de se estimar o risco de mercado, sendo que uma escolha apropriada irá levar em conta pelo menos três importantes questões: características dos instrumentos a serem modelados (se são

24 25

O Value-at-Risk é também expresso em termos de percentual de uma determinada carteira em análise. É importante ressaltar que a técnica de mapeamento referencial não é válida para instrumentos que guardam relações não lineares com o seu ativo subjacente, como é o caso das opções, sendo requeridas neste caso estimativas de volatilidades e correlações dos preços e taxas que afetam seu valor, bem como um modelo específico para sua precificação (ver Valls Pereira, 2001).

28

lineares ou não); adequação dos modelos a estes instrumentos; e trade-offs entre acurácia e velocidade na geração dos resultados. Sobre o primeiro aspecto que deve governar a escolha da metodologia a ser implementada, cabe um parêntese (J.P.Morgan & Reuters, 1996). Quando se diz que um instrumento financeiro é linear, subentende-se que o valor deste ativo depende exclusivamente de uma única taxa. Assim, o potencial de mudança no valor futuro dessa posição será uma função de aproximação local dessa taxa em diferentes cenários ou ainda da sensibilidade analítica26 do ativo em questão perante a volatilidade desta mesma taxa (por exemplo, a mudança no valor de um instrumento de renda fixa pode ser estimada usando o conceito de duration deste instrumento, o que, apesar de simplificar a relação de convexidade existente entre o preço e rendimento deste título, geralmente representa um percentual mais significativo do risco em questão). Por outro lado, se o valor de uma posição depende de uma variedade de preços e taxas, uma situação de não-linearidade é então verificada e o potencial de mudança futura em seu valor será uma função da combinação (obtida através de técnicas de simulação) de preços e taxas em cada cenário ou ainda de uma combinação de volatilidades e correlações entre todos os pares de preços e taxas (este é caso, por exemplo, a ser trabalhado na obtenção do risco de mercado de uma opção de compra, cuja precificação pelo modelo de Black & Scholes leva em conta não somente o preço do ativo subjacente, como também um conjunto de variáveis como taxa de juros livre de risco, tempo que resta para o exercício da opção, preço de exercício da opção e volatilidade do ativo subjacente). Feita essa distinção crucial, prossegue-se então a escolha do método apropriado a ser utilizado na estimação do risco de mercado, a qual se dará com base em uma análise circunstancial sobre as características dos ativos em carteira e ainda levandose em conta a propensão a trocar acurácia por velocidade (ou vice-versa) na geração dos resultados almejados. De modo geral, os modelos utilizados para obtenção da estimativa do Value-at-Risk podem ser diferidos em dois aspectos: a) como as mudanças nos valores dos instrumentos financeiros são estimadas como resultado de movimentos de mercado; b) como o potencial de movimento do mercado é estimado. Atualmente, a existência de uma ampla gama de modelos de Value-at-Risk se deve às

26

A sensibilidade analítica de uma posição estabelece a relação entre o valor do instrumento e o preço ou taxa de seu ativo de referência, determinando a acurácia da aproximação do risco.

29

escolhas nas quais (a) e (b) podem ser utilizados em conjunto ou confrontados de diferentes maneiras (J.P.Morgan & Reuters, 1996). Há basicamente dois grupos de abordagens possíveis quando se deseja estimar a mudança no valor de uma posição, ou de um portfólio, como resultado de movimentos de mercado, a saber, modelos analíticos, ou de avaliação local (local valuation), e de avaliação plena (full valuation). Em termos comparativos, o primeiro é caracterizado por um menor grau de precisão de suas estimativas, utilização menos intensiva de recursos computacionais e maior velocidade na obtenção dos resultados. Já os métodos de full valuation, ou de simulação, são marcadamente mais precisos, bastante intensivos em técnicas computacionais e com um tempo de geração de resultados mais prolongado. Ambos apresentam atrativos e limitações. Dentro das técnicas de local valuation, o método Delta-Normal é o mais simples e direto para obtenção do Value-at-Risk do portfólio, ao pressupor que os retornos de todos os ativos são normalmente distribuídos. A hipótese de normalidade é particularmente conveniente devido à propriedade de invariância das variáveis normais, ou seja, carteiras compostas por ativos que apresentam distribuição normal de seus retornos serão também normalmente distribuídas. Portanto, ao se assumir que o retorno do portfólio é uma combinação linear de variáveis normais que o compõem, é possível se inferir que o retorno desta carteira apresentará distribuição Normal. Neste caso, o risco de mercado é, então, gerado por uma combinação de exposições lineares a vários fatores que, pela premissa básica do modelo, são normalmente distribuídos e pela previsão da matriz de covariância num dado momento futuro (J.P.Morgan & Reuters, 1996). Sobre a obtenção dessa matriz, nos modelos de Delta – já adiantando um pouco a discussão sobre (b) - é possível utilizar tanto parâmetros baseados em dados históricos (como é o caso do RiskmetricsTM) quanto medidas de risco implícitas em opções (por exemplo, a fim de encontrarmos a volatilidade implícita de uma opção igualamos o preço de mercado, onde estão incorporadas as expectativas dos operadores de mercado para as volatilidades e correlações futuras deste ativo, a seu preço teórico), sendo que as duas possibilidades geram uma matriz de covariância na qual o “Delta” (ou exposição de primeira ordem) é aplicado para se encontrar o Value-at-Risk. Talvez a maior vantagem observada nos modelos de local valuation esteja no fato que seus métodos são computacionalmente eficientes e possibilitam que os resultados sejam acessados mais rapidamente. No entanto, em virtude da utilização de 30

premissas demasiadamente simplificadoras para alguns casos específicos, algumas ressalvas quanto à utilização do modelo Delta-Normal podem ser levantadas (Jorion, 1998: p.180): i) esta técnica não captura adequadamente o risco contido em circunstâncias extremas ou incomuns como crashs financeiros e colapsos na taxa de câmbio, fundamentalmente por estes eventos não ocorrerem com a freqüência necessária para serem adequadamente representados por uma distribuição de probabilidade baseada em dados históricos recentes; ii) um segundo problema pode estar relacionado à existência de “caudas gordas”, situação em que a utilização de um modelo baseado na aproximação Normal irá subestimar a proporção de outliers e, conseqüentemente, o verdadeiro Value-at-Risk; iii) por ser um método

caracteristicamente linear, o Delta-Normal mensura o risco de mercado de instrumentos não-lineares de maneira inadequada, tendo em vista que considera simplificadamente e equivocadamente, por exemplo, o risco de mercado de uma opção de compra (call) como sendo representado apenas pelo “Delta” equivalente a seu ativo-objeto, ignorando assim todos os outros tipos de risco presentes neste instrumento financeiro27. Com relação a esse último ponto, em princípio, é possível captar efeitos de ordens mais elevadas (não-linearidades) usando métodos de aproximação analítica através da incorporação de fatores de risco como o Gamma (sensibilidade de segunda ordem) na fórmula da expansão de Taylor (“aproximação Delta-Gamma”)28. O cálculo do Value-at-Risk usando sensibilidades de ordens superiores, como Vega e Rô (“método das gregas”), também pode ser obtido pelo mesmo caminho, mas a matemática envolvida tipicamente fica muito mais complexa. Sobre a possibilidade de recorrer à uma análise do risco de mercado com base no “método das gregas”, três assertivas devem ser levadas em consideração (Jorion, 1998: p.186): i) quando as opções não forem um fator determinante em portfólios, o método Delta-Normal mensurará o risco de mercado com rapidez e eficiência; ii) para o caso de carteiras de opções expostas a um pequeno número de fontes de risco (Delta e Gamma, por exemplo), o “método das gregas” apresenta boas estimativas do risco de mercado com custos computacionais reduzidos; iii) para portfólios com um grande

27

O Delta é um indicador que mensura a taxa de variação de uma call em relação à variação do preço da ação objeto. O Gama mede a variação do Delta em relação ao preço da ação objeto. Já o Vega mede a sensibilidade do preço da opção em relação à volatilidade da ação objeto (ver Mellagi Filho & Ishikawa, 2000). 28 Sobre este ponto, o Comitê Basiléia recomenda que quando utilizando modelos internos de mensuração do risco de mercado para carteiras com opções, as instituições incorporem, no mínimo, a sensibilidade oferecida pelo gama do portfólio (BIS, 1995).

31

número de opções e exposição a diversas fontes de risco, métodos de avaliação plena irão apresentar melhor aderência à realidade destes ativos. A segunda alternativa possível, quando a atenção está voltada para a análise da maneira como as mudanças nos valores dos instrumentos financeiros são estimadas como resultado de movimentos de mercado, está em utilizar técnicas de full valuation. Também conhecidos como métodos de simulação, a marca registrada das técnicas de avaliação plena está em realizar exercícios de reavaliação de um portfólio ou de um instrumento financeiro específico sob diferentes condições de mercado (preços e taxas). Há diferentes modos de se gerar esses cenários, desde uma Simulação Histórica, que avalia a carteira atual sob os preços vigentes em “janelas temporais” passadas, passando por situações em que são criadas condições subjetivas de não-normalidade (testes de stress) ou ainda através de uma metodologia conhecida como simulação de Monte Carlo, a qual impõe determinado processo estocástico às variáveis de interesse a partir do qual são simuladas várias trajetórias amostrais. A grande vantagem dos modelos de full valuation é que estes fornecem uma análise mais completa do risco, na medida em que para cada trajetória amostral é gerada a distribuição dos valores da carteira, permitindo que toda a distribuição dos retornos seja observada ao invés de um único número representativo do Value-at-Risk (Jorion, 1998). O segundo aspecto discriminante (b) entre as abordagens de Value-at-Risk está em definir como os movimentos de mercado são estimados. Conforme já adiantado acima, além de dados históricos e de medidas de risco implícitas (volatilidade implícita), em se tratando de estimar movimentos de mercado, existem ainda alternativas que envolvem simulações e elaboração de cenários específicos, todas estas com o intuito de avaliar mudanças no valor de uma carteira perante potenciais eventos futuros de mercado. Com relação à utilização de dados históricos, o método do RiskmetricsTM utiliza a análise de séries temporais para derivar estimativas de volatilidades e correlações de um amplo conjunto de instrumentos financeiros, assumindo que a distribuição dos retornos passados é uma boa proxy para fornecer previsões de retornos futuros sob diferentes horizontes. Para o cálculo do Value-at-Risk, as estimativas de volatilidade e correlação, obtidas sob a premissa de normalidade condicional dos retornos passados, são utilizadas como inputs tanto para os modelos analíticos quanto de avaliação

32

plena. Indubitavelmente esta é a opção mais utilizada pelos agentes interessados em estimar o risco de mercado. A utilização de técnicas de full valuation para movimentos de mercado pode ser feita a partir de uma Simulação Histórica ou através da especificação de um processo estocástico para variáveis de interesse (através de uma Simulação de Monte Carlo), sendo que, em ambos os casos, para cada trajetória amostral é gerada uma distribuição de probabilidade dos valores da carteira. Para o caso de uma Simulação Histórica, como de praxe nos modelos de avaliação plena, não são feitas assertivas explícitas sobre a distribuição dos retornos dos ativos e o portfólio é avaliado sob diferentes janelas históricas temporais (a intenção é quantificar o risco futuro reproduzindo uma trajetória histórica específica de evolução do mercado) de acordo com o interesse do usuário desta ferramenta, onde estes intervalos de tempo geralmente se estendem de seis meses a um ano atrás. Já a Simulação de Monte Carlo ou estocástica, procura gerar um número elevado de possíveis trajetórias de retorno de mercado utilizando um processo aleatório definido (por exemplo, para o caso de instrumento de renda fixa, que a taxa de juros segue um random walk) e parâmetros estatísticos importantes que guiam este processo, como média e variância da variável aleatória. Por fim, com respeito às outras duas possibilidades mencionadas29, a volatilidade implícita e análise de cenários, cabe um breve comentário. A volatilidade implícita, extraída de um modelo particular de precificação de opções, pode ser manuseada pelos agentes como um indicador de uma possível distribuição de retornos futuros, tendo em vista que esta se refere à previsão de mercado da volatilidade futura, e é geralmente usada em uma base comparativa histórica para refinar análises de risco de mercado. No que tange à elaboração de cenários, a maioria dos modelos de análise de risco incorpora a possibilidade de o usuário adicionar movimentos subjetivos de preços e taxas, seja para se testar os resultados de uma provável não-repetição de trajetórias passadas ou para avaliar impactos de situações de crises passadas. A utilização adequada dessa possibilidade passa pela compreensão das premissas do método a ser utilizado e pela elaboração de previsões sensatas (educated guesses) de cenários futuros.
29

Por estarem relacionadas à discussão deste trabalho serão brevemente comentadas. Contudo, não serão abordadas quantitativamente. Para maiores detalhes, ver J.P.Morgan & Reuters (1996).

33

Este item buscou prover um entendimento geral do Value-at-Risk, com vistas para os principais elementos que compõem suas diferentes metodologias de estimação possíveis. Maior nível de detalhamento estatístico é apresentado a partir do capítulo três, onde o risco de mercado passa a ser abordado quantitativamente com a apresentação de alternativas de estimação do Value-at-Risk, sendo duas da classe dos modelos paramétricos (modelo de variância incondicional e modelo de variância condicional) e uma não-paramétrica (Simulação Histórica). Por hora, os subitens abaixo apontam alguns aspectos relacionados à utilização desta importante e necessária ferramenta de análise do risco de mercado pelas instituições financeiras.

2.2.1 Duas importantes características dos modelos de Value-at-Risk

A primeira característica a ser ressaltada acerca da ampla aceitação do Valueat-Risk entre as instituições financeiras é que este instrumento pode ser utilizado de maneira eficaz por entre uma ampla variedade de ativos e portfólios, permitindo que a importância relativa, em termos de risco de mercado, de cada um destes possa ser diretamente comparada e agregada em uma base de análise comum. Neste sentido, o Value-at-Risk fornece um critério consistente de comparação do risco incorrido em diversas posições em ativos financeiros expostos a diferentes fatores de risco. Como conceito padrão de mensuração do risco de mercado, o Value-at-Risk permite, então, quantificar e comparar, em um denominador comum, riscos de ativos financeiros de naturezas distintas. Por exemplo, o risco de taxa de juros contido em um contrato futuro pode ser medido e comparado, em uma mesma base de análise - mas não sob uma mesma metodologia de cálculo - com aquele observado em determinada ação ou mesmo em um instrumento derivativo como uma opção (Alexander, 1999). Uma segunda importante característica do Value-at-Risk é que este leva em conta as correlações entre diferentes fatores de risco, algo absolutamente essencial quando se analisando os riscos de ativos específicos ou de portfólios diversificados de maneira significativa. Deste modo, supondo simplificadamente o carregamento de dois ativos em carteira que estão expostos a duas diferentes fontes de risco, se estes dois fatores de risco se autocompensam, então, automaticamente a estimativa do Value-at-Risk reconhecerá a correlação negativa entre ambos e levará em conta este fato fornecendo um resultado justificadamente mais baixo. O inverso será igualmente válido, i.e., se os mesmos dois fatores de risco não se autocompensam, a estimativa 34

do Value-at-Risk será mais elevada, refletindo uma situação de maior risco dada pela correlação positiva entre os riscos dos dois ativos (Dowd, 1998).

2.2.2 Limitações dos modelos de Value-at-Risk

Há pelo menos três importantes limitações presentes no uso desta ferramenta que devem ser do conhecimento daqueles que a utilizam. A primeira, e talvez a mais importante a ser destacada, é que os sistemas de Value-at-Risk são backward-looking, i.e., tentam prever perdas futuras utilizando para isso dados de volatilidades e correlações verificados no passado, com base na assunção de que as relações pretéritas entre variáveis de interesse continuarão sendo verificadas no futuro (Dowd, 1998). Como é sabido, o funcionamento dos mercados financeiros não segue exatamente um padrão uniforme de comportamento. Longe disso, sempre há o risco de mudanças inesperadas ocasionadas por situações de stress financeiro que geralmente findam relações históricas de condições normais de mercado. A resposta para essa questão está em reconhecer a limitação da estimativa do Value-at-Risk e complementar a avaliação do risco de mercado com uma análise subjetiva de cenário capaz de revelar informações de perdas potenciais sob circunstâncias hipotéticas, como de crashs no mercado (testes de stress). Um segundo aspecto limitante contido nos sistemas de Value-at-Risk é que estes são, inevitavelmente, baseados em assertivas que podem não ser válidas para situações específicas de análise, ocasionalmente comprometendo os resultados. Por exemplo, assumir que a distribuição dos retornos de uma carteira composta de um número significativo de opções (que são instrumentos não-lineares) possa ser modelada pelo método Delta-Normal, fatalmente, levará a resultados que subestimam o verdadeiro valor em risco deste portfólio. Uma vez mais, a grande questão está em reconhecer o problema e agir apropriadamente, e, quando possível, realizar exercícios de comparação dos resultados gerados nas diferentes formas de se estimar o Value-atRisk, distinguindo cada uma das hipóteses que compõem os diversos modelos, especialmente no que tange às premissas de normalidade e não-normalidade dos retornos e às diferenças envolvidas no cálculo do risco de mercado para instrumentos lineares e não lineares. Uma terceira e última ressalva a ser feita a respeito da utilização do Value-atRisk é que nenhum sistema computacional que utilize este conceito para análise e 35

gestão do risco de mercado é infalível. Por mais avançados que sejam os softwares usados em sua obtenção, os resultados gerados devem ser encarados com precaução, de maneira que estes sistemas sejam vistos apenas como uma ferramenta a ser manuseada por equipes especializadas e muito bem informadas sobre as premissas verificadas em cada uma das diferentes abordagens. Deste modo, para efeito de ilustração, mesmo um sistema relativamente menos avançado, como aquele que estima o Value-at-Risk por um método analítico, cuja geração dos resultados computacionais é feita mais rapidamente a um custo de menor precisão, pode ser uma ferramenta eficiente nas mãos de um operador experiente que saiba utilizá-lo apropriadamente em situações específicas, como por exemplo, em que se deseja saber se o risco de mercado para determinada posição é de R$10 milhões ou de R$20 milhões. Por outro lado, mesmo de posse de metodologias mais avançadas como as de full valuation (processos de simulação), nada impede que estes modelos, apesar de sua maior precisão de resultados obtida a custos computacionais mais elevados, sejam interpretados erroneamente, trazendo sérios problemas e perdas financeiras àqueles não interados com seus aspectos teóricos. A solução para esse impasse, como sempre, passa pela formação de uma boa equipe de analistas de risco que enxerguem este ofício como uma mistura de arte, disciplina e ciência.

2.2.3 Atrativos no uso dos modelos de Value-at-Risk

Um primeiro atrativo decorre imediatamente da característica do Value-at-Risk de fornecer um padrão de comparação para o risco de mercado de diferentes posições expostas a diferentes fontes de risco. Em função da maior propensão ou aversão ao risco dos seniors managements, o Value-at-Risk pode ser utilizado para fixar a meta de risco global que uma instituição financeira deseja incorrer e, a partir disto, estabelecer o foco dos riscos e os limites aceitos para cada posição abaixo da linha estabelecida por esta estimativa. Deste forma, se a estratégia estabelecida por esses agentes consiste em aumentar o risco de suas posições, necessariamente deverá ocorrer um relaxamento (elevação) da estimativa do Value-at-Risk global, sendo o mesmo válido para o movimento contrário de aumento na aversão ao risco desses agentes, com redução do Value-at-Risk global e, em conseqüência, do risco das diferentes posições em carteira (Dowd, 1998).

36

Além disso, o Value-at-Risk pode ser usado como meio de se acessar os riscos de diferentes oportunidades de investimento antes que estas decisões sejam tomadas, bem como para se avaliar a performance dos investimentos financeiros após estes terem sido realizados (Dowd, 1998). No primeiro caso, através de técnicas de simulação ou pela construção de cenários específicos, é possível avaliar computacionalmente, com um dado grau de confiança estatística subjetivo, trajetórias de condições futuras de mercado para, com isso, tomar decisões de investimento no presente. Tomadas essas decisões e efetivados os investimentos em determinados ativos financeiros, o Value-at-Risk pode, então, ser empregado em uma análise de performance, a qual pode ser feita em uma base relativa (medida do “descolamento” dos rendimentos de um ativo ou de uma carteira em relação a um índice utilizado como benchmark) ou absoluta, avaliando o quesito risco-retorno dos instrumentos em carteira. Adicionalmente, outra conveniência contida no uso do Value-at-Risk está no fornecimento de informações úteis e, diga-se de passagem, necessárias para o propósito de elaboração dos relatórios gerenciais das instituições financeiras. Comprimidas a produzir documentos periódicos sobre sua saúde financeira, cada vez mais essas firmas são pressionadas por regras de disclosures quantitativos e qualitativos de suas operações com ativos e contratos financeiros, em que não somente a divulgação do Value-at-Risk nos demonstrativos financeiros é requerida por acionistas, autoridades supervisoras e órgãos reguladores, como também, muitas vezes, as premissas utilizadas para sua obtenção, as quais podem ser redigidas em notas explicativas específicas. Um quarto aspecto relacionado à utilização de modelos de Value-at-Risk pelas instituições financeiras bancárias diz respeito a questões regulatórias. Uma vez que a estimativa do valor em risco revela a noção da maior quantia monetária possível de se perder em função de movimentos adversos nos preços de mercado de seus ativos em carteira, esta medida pode ser utilizada a fim de determinar os requerimentos de capital próprio para fazer frente a estas prováveis perdas. Nos últimos anos, a aceitação do Value-at-Risk como sendo uma medida adequada para determinação dos requerimentos de capital para cobrir os riscos de mercado tem sido crescente entre reguladores e supervisores do funcionamento dos mercados financeiros domésticos, desde que o Comitê de Supervisão Bancária da Basiléia, sob os auspícios do BIS

37

(Bank for International Settlements), reconheceu e sugeriu o uso desta ferramenta para este fim. O item (2.3) apresenta alguns esclarecimentos sobre este assunto.

2.3 Regulação bancária, risco de mercado e modelos de Value-at-Risk

O aumento da instabilidade financeira durante a década de oitenta nos países desenvolvidos, principalmente depois do crash ocorrido na Bolsa de Nova York em outubro de 1987, trouxe à tona demandas por enrijecimento dos marcos regulatórios vigentes. Em 15 de julho de 1988, os bancos centrais do chamado G-1030, mais Luxemburgo e Suíça, assinaram em conjunto o documento conhecido como Acordo da Basiléia, o qual se prestava a estabelecer requerimentos mínimos de capital aplicáveis ao setor bancário de cada um dos países membros. A principal diretriz desse acordo estabelecia que as exigências de capital próprio dos bancos deveriam corresponder a pelo menos 8% do total dos ativos do banco ponderados por seus respectivos riscos31. Tendo ciência das lacunas presentes no acordo de 1988, o qual tratava exclusivamente da questão do risco de crédito, o Comitê da Basiléia passou, na primeira metade da década de 90, a produzir algumas propostas para tratar da questão do risco de mercado. O primeiro conjunto de propostas sobre esse tema surgiu em abril de 1993, quando o Comitê de Supervisão Bancária da Basiléia colocou à prova para bancos e outras instituições participantes do mercado financeiro e de capitais um relatório intitulado “The Supervisory Treatment of Markets Risks”. Conforme consta nessa proposta original, foi sugerida a utilização de um “modelo padrão” (standard model approach) de Value-at-Risk a fim de que os agentes de mercado pudessem determinar a estrutura de requerimentos de capital próprio para fazer face ao risco de mercado incorrido em suas posições on-and-off-balance-sheet (BIS, 1995). Também conhecido como building-block approach, o modelo padrão segrega, para fins de cálculo do Value-at-Risk e, conseqüentemente, para determinação dos requerimentos de capital próprio, a carteira em exposições a diferentes fontes de risco

O G-10 tem como membros Bélgica, Canadá, França, Alemanha, Itália, Japão, Holanda, Suécia, Estados Unidos e Reino Unido. 31 O acordo de 1988 foi concebido exclusivamente para a questão do risco de crédito e esteve sujeito a algumas críticas como: não reconhecia que o risco de crédito poderia ser reduzido através da diversificação entre os tomadores de recursos; os requerimentos de capital eram calculados com base nos valores registrados na carteira ao invés de registrar valores atuais de mercado, algo que, por certo, subestima o verdadeiro risco dessas posições.

30

38

(como risco de taxa de juros, taxa de câmbio, ações e commodities), de modo que o encargo total de capital próprio é obtido a partir da somatória dos requerimentos obtidos em cada uma das categorias estabelecidas. De pronto a abordagem padronizada foi objeto de crítica por não levar em conta a diversificação32 entre riscos. Ou seja, baixas correlações indicam que o risco de uma carteira pode ser muito menor que a soma dos riscos de seus componentes em isolado (Jorion, 1998). Conseqüentemente, a grande implicação disso é que a abordagem padronizada apresentou sérias limitações para fins de cálculo da exigência de capital das instituições financeiras, pois, devido à sua natureza estática, se revela inadequada para capturar alterações nos padrões de volatilidade e nas correlações dos fatores de risco. Essa limitação é preocupante, principalmente em se tratando de mercados sujeitos a oscilações consideráveis nos preços de seus ativos, pois a exigência de capital baseada em tal método, ao ser calibrada para determinado cenário, pode rapidamente se tornar excessiva, caso haja uma redução nos níveis de volatilidade, ou insuficiente em caso contrário (Araújo et alli, 2003). Após períodos de estudos das sugestões que foram surgindo sobre o tema e de intensas negociações entre o Comitê, participantes do mercado e autoridades supervisoras e reguladoras nacionais, em abril de 1995 o Comitê da Basiléia apresentou a proposta conhecida como Internal Model Approach. Nesta, pela primeira vez, aos bancos seria permitido o desenvolvimento e a utilização de modelos próprios de Value-at-Risk para fins de determinação dos encargos de capital próprio referentes ao risco de mercado. Como proteção adicional a cenários menos estáveis do que poderiam supor os dados históricos, o Comitê da Basiléia estipulou um fator multiplicativo do Value-at-Risk total obtido pelos bancos. Também conhecido como fator de histeria (hysteria factor), este número pode variar entre três e quatro, dependendo da acurácia do modelo empregado, medida por procedimento de backtest dos últimos 250 dias de negociação (BIS, 1995). Segundo a abordagem dos modelos internos sugerida pelo Comitê, a exigência de capital dos bancos (EC) em um dado instante t é obtida como sendo o maior Value-at-Risk dentre aquele verificado no dia anterior e a média do risco de mercado dos últimos sessenta dias de negociação ponderada pelo fator de histeria M
32

Uma vez mais a proposta do Comitê Basiléia foi objeto de críticas por não levar em conta a diversificação, agora no que tange a questão do risco de mercado presente em diferentes instrumentos financeiros.

39

(multiplicador da média do Value-at-Risk para o horizonte de tempo de 10 dias calculado nos últimos 60 dias):

⎧⎛ M 60 ⎫ ⎞ ⎪ ECt = Máx⎨⎜ ∑ VaRt10kdias ⎟;VaRt10 dias ⎬ − −1 ⎪⎝ 60 K =1 ⎠ ⎭ ⎩

(2.1)

A possibilidade das instituições financeiras bancárias utilizarem seus próprios sistemas de mensuração de risco de mercado, e com isso determinar seus encargos de capital, adveio do reconhecimento de que os modelos internos desenvolvidos por elas eram, em muitos casos, mais complexos e apurados do que os propostos pelas autoridades reguladoras. Por terem maior conhecimento das idiossincrasias de seus elementos em carteira, foi se criando um consenso em torno da questão de que os bancos seriam mais bem sucedidos na tarefa de elaborar modelos próprios de Valueat-Risk. A gestão ativa desses modelos proporcionaria maior eficiência na alocação de capital e incentivos à geração de modelos cada vez mais acurados. Contudo, deve-se ressaltar, a ótica dos modelos internos apresentou aos bancos um trade-off entre acurácia de seus modelos e penalidades em termos de encargos de capital mais elevados. Como mencionado, os modelos internos são avaliados através de um procedimento conhecido como back-test, o qual nada mais é do que a comparação entre os retornos realizados e os Value-at-Risk gerados nos últimos 250 dias de negociação. Os modelos internos, desse modo, são avaliados pelo número de vezes em que o retorno efetivo foi pior do que o Value-at-Risk estimado para o mesmo período. Por exemplo, se a taxa de erros corresponder a aproximadamente 1% do back-test para os últimos 250 dias de negociação, a autoridade reguladora diria que o modelo empregado é bom e, neste caso, o fator de histeria a ser utilizado seria aquele fixado como o piso (de valor três). A lógica dessa diretriz está em elevar o fator de histeria na relação direta do número de violações observadas no procedimento de back-test dos últimos 250 dias de negociação, conforme demonstrado na Tabela 1.

40

Tabela 1

Relação entre Fator de Histeria e Resultados do Back-Test Zona Número de Violações 0 1 Verde 2 3 4 5 6 Amarela 7 8 9 Vermelha
*

Fator de Histeria Empregado 3.00 3.00 3.00 3.00 3.00 3.40 3.50 3.65 3.75 3.85 4.00

mais de 9

Fonte: (BIS, 1996) (*) Neste caso, a autoridade de supervisão e regulação poderia sugerir que o modelo interno desenvolvido pela instituição financeira fosse revisto.

Desde que o BIS publicou o Amendment to the Capital Accord to Incorporate Market Risk, em 1996, o risco de mercado incorrido pelas instituições financeiras tem sido tratado tanto a partir de um modelo padrão, fornecido pelas autoridades reguladoras locais, como a partir do desenvolvimento de modelos próprios internos. Com relação a esse último, vale dizer, com o intuito de assegurar um grau mínimo de padronização, transparência e consistência dos resultados obtidos para os diferentes modelos internos, foram estabelecidas algumas restrições qualitativas e quantitativas, destacando-se entre estas (Jorion, 1998: p.50): i) o cálculo do Value-at-risk deve ser feito para um horizonte de investimento (holding period) de dez dias; ii) intervalo de confiança de 99%; iii) as séries utilizadas devem ser de pelo menos um ano de dados históricos, que devem ser atualizados, no mínimo, uma vez por trimestre; iv) as correlações podem ser reconhecidas dentro de categorias (como renda fixa), assim como entre categorias (por exemplo, ações e câmbio), algo que representa um avanço em relação ao modelo padrão; v) o requerimento de capital é definido como o maior entre o Value-at-Risk do dia anterior e o Value-at-Risk dos últimos sessenta dias, multiplicado por um fator de conservadorismo (ou fator de histeria) cujo número exato deve ser determinado por autoridades reguladoras domésticas, estando sujeito ao piso de valor três. A razão desse fator é fornecer proteção adicional contra cenários

41

que sejam muito menos estáveis do que os dados históricos levariam a crer33; vi) um último aspecto qualitativo diz respeito à existência de um componente de penalidade que é agregado ao fator multiplicativo, caso as avaliações projetadas pelos modelos internos das instituições estejam projetando riscos de maneira errônea. No limite, essa medida recompensa bons modelos internos (com componente de penalidade igual a zero), incentivando as instituições a melhorarem a precisão de suas estimativas e buscando evitar que projeções otimistas (que podem ser guiadas por comportamentos oportunistas) subestimem o risco de mercado propositadamente com intuito de arcarem com menores exigências de capital próprio. Atualmente, a crescente utilização de modelos de Value-at-Risk pelas instituições financeiras não deriva apenas da importante percepção que o risco de mercado deve ser objeto de monitoração cuidadosa, mas também, pelo lado das autoridades competentes de supervisão e regulação bancária, a adoção deste instrumento revela-se imprescindível. Na verdade, a complexidade e a velocidade com que os mercados financeiros e de capitais contemporâneos operam, praticamente impossibilita que organismos reguladores e supervisores em todo o mundo sejam capazes de acompanhar, em tempo suficientemente útil, as mudanças de posição dos bancos, quer estes tenham ou não instrumentos e procedimentos adequados de gestão de seus próprios riscos. É com base nessa constatação que cada vez mais os bancos estarão (como já estão) sujeitos a julgamentos de seus órgãos reguladores e supervisores segundo a qualidade de sua gestão de riscos, arcando com sobrecargas de reservas inversamente às boas notas neste requisito. Conforme apontando acima, em (vi), ao reconhecer a capacidade de autonomia dos bancos em gerir riscos, as autoridades, em contrapartida, passariam a supervisionar estes procedimentos, introduzindo prêmios e castigos conforme a qualidade de sua auto-supervisão e autoregulação (Canuto, 2000). No plano doméstico, a partir dos conceitos criados e das recomendações emitidas pelo Comitê Basiléia, o Banco Central do Brasil, movido pela necessidade de adequar as instituições financeiras sob sua guarda às normas de funcionamento internacionais, tem dado atenção significativa para a questão do gerenciamento de risco, endossando e, em alguns casos, fazendo adaptações de acordo com seu aparato
33

A sugestão do valor mínimo de três para o fator de multiplicação a ser utilizado nos modelos internos engendrou uma série de críticas por parte de diversos organismos e instituições, que passaram a argumentar não haver incentivos à criação de novos modelos de risco mais acurados, tendo em vista que,

42

legal e riscos internos, para prática interna, os pareceres emitidos pelo Comitê. Dentre as resoluções e circulares que dispõem sobre o assunto, destacam-se duas:

Resolução 2099/94 -> aprova regulamentos que dispõem sobre as condições relativamente ao acesso ao Sistema Financeiro Nacional, aos valores mínimos de capital e patrimônio líquido ajustado, a instalação de dependências e a obrigatoriedade da manutenção de patrimônio líquido ajustado em valor compatível com o grau de risco das operações ativas das instituições financeiras e demais instituições autorizadas a funcionar pelo Banco Central. Esta Resolução pode ser entendida como a adaptação para o caso brasileiro do International Convergence of Capital Measurement and Capital Standards (também conhecido como Acordo da Basiléia), de julho de 1988. Na prática, representou a entrada do Brasil no Acordo de Basiléia, segundo o qual os bancos devem ter capital superior a 8% dos créditos concedidos, ponderados pelo tipo de tomador. Em decorrência das crises internacionais enfrentadas, o Banco Central prudentemente majorou esse percentual para 10% (Resolução 2399/97) e depois para 11% (Circular 2784/97), patamar que se mantém até hoje.

Resolução 2692/00 -> estabelece critério para apuração do Patrimônio Líquido Exigido (PLE) para cobertura do risco decorrente da exposição das operações registradas nos demonstrativos contábeis a variação das taxas de juros praticadas no mercado. Complementada pelas instruções contidas na Circular 2972 de 23/03/2000, esta Resolução instituiu parte das recomendações contidas no Amendment to the Capital Accord to Incorporate Market Risk, documento editado pelo Bank for International Settlements em janeiro de 1996, estabelecendo um modelo padrão de requerimento de capital baseado na metodologia de Value-at-Risk para mensuração da exposição ao risco de movimentos nas taxas de juros (descasamentos em operações pré-fixadas em reais). As instituições devem calcular o maior valor em risco esperado, em moeda nacional, devido à volatilidade da taxa de juros, e o respectivo requerimento de capital, sendo

na maioria dos casos, as exigências de capital estimadas desta maneira eram maiores do que aquelas observadas quando se utilizando o modelo padrão (ver Danielsson, Hartmann & de Vries, 1998).

43

que os parâmetros dinâmicos são divulgados diariamente pelo Banco Central do Brasil.

Portanto, com o intuito de prevenir crises financeiras sistêmicas, diferentes autoridades de supervisão e de regulação vêm se destacando ao instituir em seus países medidas de controle do risco, exigindo para isso níveis mínimos de capital a serem observados na razão direta da exposição das instituições financeiras aos riscos de crédito e de mercado. Neste contexto, a utilização de modelos de Value-at-Risk (que podem igualmente ser utilizados para mensurar o risco de crédito34) ganha importância crescente, não somente como ferramenta estratégica para tomada de decisões de alocação eficiente de capital das instituições financeiras, como também, dentro das normas prudenciais35 de supervisão e regulação, para servir de instrumento de prevenção de crises financeiras decorrentes de operações financeiras demasiadamente arriscadas.

34 35

Ver Jorion (1998: capítulo 13) Sobre um bom compêndio de normas prudenciais que contemplam outros prismas de riscos consultar Figueiredo (2001) ou Sizenando (2001).

44

3 Estimação do Risco de Mercado: o Value-at-Risk

3.1 Definição estatística do Value-at-Risk

A noção de risco de mercado de um ativo, ou de um portfólio, está associada à constatação de que seu retorno financeiro em determinado instante de tempo futuro não pode ser conhecido de antemão. Ao contrário, há um número elevado de retornos possíveis, sendo que as probabilidades associadas a cada um destes eventos irão responder, em última instância, pelo potencial de perda do ativo ou do portfólio (Mollica, 1999). Deste modo, o ponto de partida para se estudar modelos de Value-atRisk está em conhecer a distribuição de probabilidades dos retornos da variável de interesse (no caso pode ser um único ativo ou todo portfólio), i.e., a função que estabelece a relação estatística entre os possíveis retornos e suas probabilidades de ocorrência. Isto feito, é possível, então, se avaliar estatisticamente eventos de interesse, particularmente, situações de movimentos adversos de preços que acabem gerando perdas, ou retornos negativos, para uma determinada aplicação financeira. O conceito de Value-at-Risk diz respeito a uma medida probabilística da maior perda que poderia ocorrer em um ativo ou portfólio em um determinado horizonte de tempo e nível de confiança estatístico. Mais especificamente, ao fixarmos um horizonte de tempo t e um nível de significância estatística de α% (0 < α > 1), o “valor em risco” representa a perda máxima esperada em t para um nível de confiança de (1 – α)%. Na prática, em termos estatísticos, para um nível de significância de α%, o Value-at-Risk é a medida representativa do valor crítico da distribuição de probabilidades de mudanças no valor de mercado dos ativos em carteira ou de um portfólio tomado em conjunto (Duffie & Pan, 1997). Define-se genericamente o Value-at-Risk (VaRt) de uma carteira ou ativo de valor Πt, no período t como (Souza, 1999): Pr{∆ ∏ t ≤ VaRt } = α 0 0 onde: (3.1)

∆Πt representa a variação no valor da carteira ou ativo de preço Πt α% é o nível de significância escolhido

45

Assim, a título de ilustração, se uma aplicação em um ativo qualquer no valor de R$ 100.000 apresenta um Value-at-Risk diário de R$ 2000 para um nível de significância de 5%, esta assertiva pode ser entendida da seguinte maneira: a cada cem dias de negociação, apenas cinco deles devem apresentar uma perda maior ou igual a R$ 2000. Vale lembrar que o valor em risco é uma medida probabilística, i.e., ela não diz respeito à magnitude das grandes perdas. Isto implica que, continuando com o exemplo acima, é possível que ocorra uma situação de quatro dias com lucros financeiros, ou ainda perdas menores que R$ 2000, mas no último dia registrar uma perda de R$ 10.000 sem que a estimativa de Value-at-Risk seja violada. O Value-at-Risk pode ser mensurado em termos monetários, como exemplificado acima, em que o resultado é uma medida absoluta do potencial de perda, ou em termos da distribuição dos retornos do ativo ou portfólio. Para esta segunda opção, definindo o retorno financeiro de uma carteira ou ativo de valor Π em um dado instante t como (Souza, 1999):

rt =

t

− ∏ t −1 ∏ t −1

(3.2)

a medida do Value-at-Risk terá a seguinte representação:

⎧⎛ ∆ ∏t Pr⎨⎜ ⎜ ⎩⎝ ∏t −1

⎫ ⎞ 1 ⎟ ∏t −1 ≤ VaRt ⎬ = α 0 0 ⇒ Pr rt ≤ VaRt ∏t−−1 = α 0 0 ⎟ ⎠ ⎭

{

}

(3.3)

Pode-se assim definir um novo Value-at-Risk em termos de retorno, o qual será:

Pr rt ≤ VaR * t = α 0 0

{

}

(3.4)

sendo o Value-at-Risk monetário (ou absoluto) obtido a partir da seguinte relação: VaRt = VaR *t ∏ t −1

(3.5)

46

Doravante, este trabalho usará apenas a abreviação VaR para tratar do conceito de Value-at-Risk em termos de retorno. A opção feita é de se trabalhar as estimativas do VaR utilizando os retornos em sua forma logarítmica, dado da seguinte forma:
⎛ ∏ ⎞ rt = ln⎜ t ⎟ ⎜∏ ⎟ ⎝ t −1 ⎠

(3.6)

sendo que ln denota o logaritmo neperiano. Essa opção se justifica à luz da suposição de que os retornos logarítmicos se aproximam mais de uma distribuição normal do que os retornos efetivos, algo fundamental em se tratando de se estimar o VaR sob a hipótese de lognormalidade dos retornos. Ademais, diversos métodos de obtenção do VaR assumem implicitamente a lognormalidade dos retornos (Araújo et alli, 2003).

3.2 Value-at-Risk paramétrico versus não-paramétrico

Os procedimentos de estimação e previsão do risco de mercado de ativos financeiros têm ganhado importância crescente no campo da estatística aplicada a finanças. Desde que é impossível para os agentes de mercado antever a trajetória futura de preços dos ativos de seu interesse, dispor de boas estimativas do risco associado à sustentação dessas posições é algo imprescindível. No decorrer das duas últimas décadas, diversos avanços puderam ser observados com a concepção de modelos econométricos fundamentados basicamente em duas abordagens, a saber, paramétrica e não-paramétrica. Diz-se que determinada metodologia (ou mesmo um teste estatístico) é paramétrica (o) quando se pressupõe conhecer a distribuição de probabilidades da variável em estudo. Por exemplo, da representação dada em (3.4), observa-se que esta é uma maneira um tanto genérica de se definir o cálculo do VaR. Ou seja, mais especificamente, as diferenças entre os diversos métodos de estimação do valor em risco serão sentidas através da forma em que é especificado o cálculo da probabilidade mostrada em (3.4), a qual assume-se como sendo dada por: Pr{rt ≤ VaR } =
* t VaRt*

−∞

∫ f (r )dr
t

t

= α%

(3.7) 47

Desse modo, será a especificação, ou parametrização, de f(•) que determinará o montante do VaRt* (Souza, 1999). Isto feito, diz-se que o valor em risco é obtido por um método paramétrico, dependente essencialmente das hipóteses feitas acerca da distribuição de probabilidades da variável aleatória rt (retorno financeiro). Uma suposição usualmente utilizada é que os retornos dos ativos financeiros seguem uma distribuição normal, com média µt e variância σt2, sendo sua probabilidade dada da seguinte maneira36:

⎧ r − µt ⎫ Pr ⎨ t ≤ Zα % ⎬ = ⎩ σt ⎭

Zα %

−∞

1 − x2 2 e dx = α % 2π

(3.8)

onde Zα% representa o quantil correspondente a α% de uma Normal Padrão. Por exemplo, assumindo α = 5% e levando em conta a suposição de que a média dos retornos é nula37, temos que Z5% ≅ -1,65, e o VaR da carteira ou de um dado ativo é obtido da seguinte forma: VaRt* = µ t + σ t Z α % = −1.65σ t

(3.9)

e, conforme estabelecido em (3.5), a conversão para VaR monetário é feita através da seguinte fórmula: VaR t = −1.65σ t ∏t −1 (3.10)

Vemos através dessas fórmulas que, sob a abordagem paramétrica, a questão central do cálculo do VaR consiste em se estimar a variância (i.e., volatilidade). Portanto, a forma como isso é feito influencia diretamente os resultados das estimativas do risco de mercado. Na classe dos modelos paramétricos, diversas alternativas foram desenvolvidas para dar tratamento adequado à questão da
36

Na equação (3.8), os parâmetros da média e da variância são indexados por t para se manter o caráter de generalidade. Caso seja feita a hipótese de normalidade da distribuição condicional dos retornos, ou seja, sobre rt / Πt-1, é possível estabelecer um modelo que descreva o comportamento da média e da variância condicional. Este é o caso do modelo GARCH apresentado em (3.3.2.1), o qual oferece estimativas de σ que variam ao longo do tempo. 37 A hipótese de média nula dos retornos é amplamente utilizada na literatura de finanças e está fundamentada em casos empíricos. Isto pode ser constatado no capítulo quatro, onde são analisadas estatisticamente as duas séries de ações estudadas neste trabalho.

48

existência de algumas particularidades presentes nas séries financeiras38, especialmente no que diz respeito à heteroscedasticidade e da dependência temporal do segundo momento. Trabalhos como de Engle (1982) e Bollerslev (1986) são surveys da literatura de modelos de variância condicional, com grande aplicação em séries de ativos financeiros. Por outro lado, uma abordagem não-paramétrica informa que nenhuma pressuposição sobre a distribuição de probabilidades da variável de interesse é requerida. Disto decorre também que nenhuma estimativa de parâmetros é necessária. Ou seja, sob uma metodologia não paramétrica, a própria distribuição de probabilidade da variável observada é utilizada para o cálculo do VaR. É o caso da metodologia de Simulação Histórica, na qual a hipótese subjacente é que a própria distribuição empírica dos retornos financeiros é capaz de refletir fielmente a verdadeira distribuição de probabilidades desta variável no futuro. Os detalhes dessa metodologia são discutidos em (3.4.1) Nos itens (3.3) e (3.4) estão descritos, respectivamente, dois modelos paramétricos e um não-paramétrico para a obtenção do VaR. A intenção é apresentálos e, paralelamente, discuti-los à luz de suas características peculiares, buscando-se, com isto, explicitar os prós e contras envolvidos em cada metodologia. Por enquanto, vale a constatação que tanto os métodos paramétricos como os nãoparamétricos apresentam suas vantagens e desvantagens, as quais devem ser compreendidas para boa adequação dessas técnicas aos fins desejados.

3.3 Métodos paramétricos

Considerando que se tenha bons motivos para crer que a distribuição de probabilidades dos retornos é conhecida, o VaR será dado a partir da préespecificação de f(•).

Pr{rt ≤ VaR } =
* t

VaRt*

−∞

∫ f (r )dr
t

t

= α%

(3.11)

38

Essas particularidades são discutidas em (4.1).

49

3.3.1 Modelo Não-Condicional

Uma premissa amplamente utilizada para o cálculo do VaR é que os retornos financeiros apresentam distribuição Normal39 de probabilidades. Neste caso, a função de distribuição de probabilidades f( rt ) é dada por: ⎡ ⎛ 1 ⎞ 2⎤ exp ⎢− ⎜ 2 ⎟(rt − µ ) ⎥ 2πσ 2 ⎣ ⎝ 2σ ⎠ ⎦ 1

f (rt ) =

(3.12)

sendo µ a média e σ o desvio-padrão da variável aleatória em estudo (i.e., dos retornos financeiros de um ativo ou portfólio qualquer). Assumindo média nula dos retornos financeiros, é possível se calcular o VaR a partir da seguinte expressão:

VaR (α %) = −Π t −1Z1−α % σ

^

(3.13)

na qual Z1-α% representa o quantil de uma distribuição Normal (por exemplo, Z95% = 1,65 e Z99% = 2,33). Assim, para uma janela amostral contendo T observações, o estimador não-condicional 40 (ou incondicional) do desvio-padrão σt é dado por:

σt = σ =

^

^

− 1 T ∑ (rt − r ) 2 T − 1 t =1

(3.14)

sendo:
r=

1 T ∑ rt T t =1

(3.15)

Duas ressalvas devem ser feitas com relação à utilização da volatilidade nãocondicional para cálculo do VaR. Primeiramente, a obtenção do estimador da variância não-condicional permite pouca adaptabilidade às informações mais
39

É comum considerar também outras distribuições alternativas tais como a distribuição t-Student, a qual permite caudas mais pesadas que a distribuição Normal. 40 O termo não-condicional está relacionado ao comportamento de longo prazo de uma série temporal.

50

recentes, na medida em que todas as observações da amostra de tamanho T recebem o mesmo peso. Isto significa que uma observação verificada há um ano atrás (t-252) “carrega” tanta informação sobre a variabilidade dos retornos hoje como o retorno observado ontem (t-1). A segunda, que se soma à primeira, passa pela escolha do tamanho da janela T. Para uma janela amostral excessivamente grande, observações muito distantes, que não trazem informações relevantes sobre a distribuição dos retornos do período atual, são incluídas no processo de estimação. Deste modo, quando muito extremas, essas observações fazem com que a volatilidade permaneça alta enquanto permanecerem na amostra. A previsão de volatilidade será, então, mais “suave” quanto maior o tamanho da janela amostral utilizada para a estimação. Por outro lado, para uma janela amostral reduzida, a previsão de volatilidade tende a ser “nervosa”, i.e., oscila muito quando da entrada e saída de observações extremas, pois estas, estando situadas em uma janela mais reduzida, acabam recebendo maior ponderação, ou importância relativa, dentro da amostra. Com isso, a volatilidade tende a responder mais rapidamente e, diga-se de passagem, mais fielmente41 aos patamares observados em mercado, sejam estes mais altos ou mais baixos, quando se utiliza janelas amostrais menores.
3.3.2 Modelo Condicional

No modelo não-condicional descrito acima, a suposição subjacente é que os retornos financeiros são independentes e identicamente distribuídos (i.i.d). Independentes no sentido que os retornos observados em t e t+1 não devem apresentar qualquer grau de correlação. Identicamente distribuídos no que se refere à uma amostra aleatória com média µ e desvio-padrão σ constantes42. Contudo, a hipótese de retornos financeiros independentes e identicamente distribuídos não se verifica na prática. Pelo contrário, uma característica recorrentemente observada em séries temporais financeiras é que a variância se modifica ao longo do tempo43 e apresenta dependência temporal explícita na seqüência de observações do passado
41

Isto porque as observações extremas tendem a sair mais rápido da janela amostral utilizada no processo de estimação. 42 O que implica em homoscedasticidade, i.e., assume-se que a variância dos retornos é constante ao longo do tempo. 43 Heteroscedasticidade, i.e., a variância dos retornos se modifica ao longo do tempo. Assim, é possível, e muito comum, que se verifique em séries financeiras períodos de elevada volatilidade que são seguidos

51

recente. Deste modo, faz mais sentido pensar uma metodologia que leve em conta a dependência temporal do segundo momento44 condicional. Não é difícil imaginar situações em que a previsão da variância condicional de uma série financeira se apresente como uma alternativa mais adequada que a previsão da variância não-condicional. Por exemplo, um trader45 de ações negociadas em Bolsas de Valores deve estar preocupado em gerar previsões da taxa de retorno e também da volatilidade (i.e., variância) dos diferentes papéis ao longo do tempo. Assim, assumindo que esse trader deseja comprar um determinado papel em t para revendê-lo em t+1, a variância não-condicional (ou seja, a previsão de longo prazo da variância) não é relevante para sua tomada de decisão. Ao invés disso, esse agente estará mais interessado na variância condicional, pois esta, como será mostrado adiante, leva em conta a mudança da volatilidade no tempo em função tanto de informações disponibilizadas no presente como das realizações passadas da série. Foi com base na constatação empírica da superioridade das previsões de variância condicional que alguns acadêmicos passaram a conceber métodos estatísticos com este propósito. Engle (1982) desenvolveu uma classe de modelos condicionais conhecida como ARCH (Autoregressive Conditional Heteroscedasticity), na qual se utiliza um processo auto-regressivo46 na variância para se prever a variância condicional do período seguinte (one-step-ahead). Posteriormente, Bollerslev (1986) expôs o modelo GARCH47 (Generalised Autoregressive Conditional Heteroscedasticity) como uma generalização da técnica proposta por Engle, na qual a variância condicional, ao invés de seguir um processo auto-regressivo, como no modelo ARCH, segue um processo ARMA (Autoregressive Moving Average). A seguir, apresenta-se o modelo de variância condicional selecionado para estudo e aplicação empírica ao final do trabalho. A opção feita pelo modelo GARCH se deve ao fato de ser esta a técnica mais parcimoniosa e com maior aplicação
por outros de relativa tranqüilidade. Neste caso, obviamente, assumir que a variância (volatilidade) é constante não é correto. 44 Os “momentos estatísticos” de um a quatro são, respectivamente: média, variância, assimetria e curtose. 45 Designação comum dada àquelas pessoas que trabalham em “mesas de operações” de bancos ou outras instituições financeiras e que são responsáveis, entre outras, pela compra e venda de ativos, em nome de seus clientes, junto ao mercado financeiro e de capitais. 46 Um processo auto-regressivo é um exemplo de modelo univariado de série temporal em que uma variável aleatória está relacionada com os seus próprios valores passados e com erros aleatórios. 47 O GARCH foi desenvolvido como uma alternativa mais parcimoniosa (i.e., que necessita estimação de um menor número de parâmetros) para se modelar a variância condicional. Desde então, observou-se sua

52

atualmente na modelagem do risco de ativos financeiros. A fim de recuperar e compreender os motivos que levaram ao desenvolvimento do modelo GARCH, o item (3.3.2.1) parte da apresentação do ARCH. Para maiores detalhes sobre a origem dessa classe de modelos, uma boa resenha encontra-se em Bollerslev et alii (1992).

3.3.2.1 GARCH (Generalized Autoregressive Conditional Heteroscedasticity)

O modelo GARCH pode ser entendido como uma técnica de séries temporais que utiliza informações de variâncias observadas no passado para explicar o comportamento da variância no futuro. Mais especificamente, o GARCH é uma técnica de séries temporais que permite modelar a dependência serial da variância (MATLAB, 2002). Como poderá ser visto no capítulo quatro, a dependência serial da variância deriva de um dos fatos estilizados presentes em séries financeiras, qual seja, o volatility clustering (agrupamentos de volatilidade ou também “clusters” de volatilidade). Os clusters de volatilidade são descritos estatisticamente pela presença de elevada autocorrelação no quadrado dos retornos, que, por sua vez, informa que a variância condicional apresenta dependência temporal dos choques passados. De maneira geral, sabe-se da teoria de séries temporais que caso exista uma estrutura de autocorrelação no histórico das observações, é possível, então, utilizar esta estrutura para prever valores futuros do processo. No que tange às séries financeiras, em termos gerais, embora os retornos não apresentem autocorrelação estatisticamente significativa, eles não são independentes no tempo. Na literatura estatística, tal dependência é demonstrada pela presença de autocorrelação na variância dos retornos. Ou seja, dito de outra forma, enquanto os retornos financeiros são não-autocorrelacionados, o quadrado dos retornos apresenta autocorrelação estatisticamente significativa. Dado que o valor esperado do quadrado dos retornos corresponde à variância em diferentes instantes do tempo48, a existência de autocorrelação no quadrado dos retornos implica autocorrelação na variância (J.P. Morgan & Reuters, 1996).

aplicação em diversas áreas tais como gestão de riscos, administração de portfólios e alocação eficiente de capital, precificação de opções, taxas de câmbio etc. 48 Isto é particularmente verdade se a esperança dos retornos é igual a zero. A plausibilidade de se assumir a média dos retornos como sendo igual a zero será discutida na análise estatística das séries financeiras feita no capítulo quatro.

53

A relação entre quadrado dos retornos financeiros e variância torna-se evidente a partir da definição de variância, σt2:

σ t2 = E [rt − E (rt )]2
ou (3.16)

σ t2 = E (rt 2 ) − [E (rt )]2
assumindo-se que a média dos retornos é igual a zero, i.e., E(rt)=0, tem-se que:

σ t2 = E (rt 2 )

(3.17)

Assim, explorando a estrutura de autocorrelação no quadrado dos retornos financeiros para prever valores futuros da variância, é correto decompor a série temporal financeira em um componente determinístico (i.e., a previsão) e em um componente aleatório (i.e., o erro, ou incerteza, associado à previsão). A forma mais geral, e com bons resultados, de se fazer isso é através da utilização do modelo ARCH. Neste, a variância condicionada ao instante t é expressa como uma defasagem distribuída do quadrado dos retornos observados no passado. Vejamos como é dado esse modelo. Como um passo preliminar para compreender a metodologia ARCH proposta por Engle (1982), deve-se notar que as previsões condicionais são superiores às previsões não-condicionais, como já explicado no item anterior. A título de ilustração, suponha-se que tenha sido estimado um modelo ARMA (Autoregressive Moving Average) estacionário para os retornos (Enders, 1995): rt = a0 + a1rt −1 + ε t (3.18)

e que se queira prever rt+1. A previsão de rt+1 condicionada ao instante t é dada por: Et rt +1 = a0 + a1rt (3.19)

54

Ao se utilizar a média condicional para se prever rt+1, o erro de previsão49 da variância é: Et (rt +1 − a0 − a0 rt ) 2 = Et ε t2+1 = σ 2

[

]

(3.20)

Ao invés disso, ao se utilizar a previsão não-condicional da média, esta será sempre a média de longo prazo da seqüência de rt, dada por:

a0 1 − a1

(3.21)

de maneira que o erro de previsão não-condicional da variância será: ⎧⎡ r − a ⎤ 2 ⎫ 2 ⎪ ⎪ E ⎨⎢ t +1 0 ⎥ ⎬ = E ε t +1 + a1ε t + a12ε t −1 + a13ε t − 2 + ... ⎪⎣ 1 − a1 ⎦ ⎪ ⎩ ⎭ ou ⎧⎡ r − a ⎤ 2 ⎫ σ2 ⎪ ⎪ E ⎨⎢ t +1 0 ⎥ ⎬ = 2 ⎪⎣ 1 − a1 ⎦ ⎪ 1 − a1 ⎩ ⎭

[(

)]
(3.22)

(

)

Dado que:

(

1 φ1 1 − a12

)

(3.23)

tem-se que a previsão não-condicional apresenta maior variância que a previsão condicional. Assim, as previsões condicionais são preferíveis às previsões nãocondicionais, tendo em vista que a primeira leva em conta informações do presente e também realizações observadas no passado. De maneira análoga, se a variância da seqüência dos erros εt não é constante, é possível se estimar qualquer tendência para movimentos sustentados na variância

49

O erro de previsão um passo à frente é definido como a diferença entre o valor real da série no instante t+1 e a previsão deste valor feita um instante antes, em t.

55

^ através de um modelo ARMA. Por exemplo, suponha que ⎧ ε ⎫ denote a seqüência ⎨ ⎬

⎩ ⎭

dos resíduos estimados do modelo: rt = a0 + a1rt −1 + ε t

(3.24)

de modo que a variância condicional de rt+1 é: Var (rt +1 rt ) = Et (rt +1 − a0 − a1rt ) ou Var (rt +1 rt ) = Et ε t2+1

[

2

]

(3.25)

Anteriormente, em (3.20), fixou-se que: Et ε t2+1 = σ 2

(3.26)

Agora, supondo que variância condicional não seja constante, uma estratégia é modelar a variância condicional como sendo um AR (q)50 utilizando o quadrado dos resíduos estimados:

ε t = α 0 + α1 ε t −1 + α 2 ε t − 2 + ... + α q ε t − q +ν t

^2

^2

^2

^2

(3.27)

sendo vt = ruído branco. Se α1 = α2 = α3 = ... = αq = 0, a variância estimada será simplesmente igual à constante α0. Caso contrário, a variância condicional de rt se desenvolve conforme o processo auto-regressivo descrito em (3.27). Deste modo, é possível utilizar o processo auto-regressivo acima para prever a variância em t+1:

E ε t +1 = α 0 + α1 ε t + α 2 ε t −1 + ... + α q ε t + − q

^

^2

^2

^2

(3.28)

50

Lê-se processo auto-regressivo de ordem q. Um modelo auto-regressivo leva em conta observações passadas da variável dependente para realizar previsões de valores desta variável no futuro.

56

Por essa razão, uma equação do tipo daquela expressa em (3.27) representa um modelo autoregressive conditional heteroscedasticity (ARCH). Há diferentes aplicações possíveis para um modelo ARCH, uma vez que os resíduos da equação (3.27) podem se originar de um processo auto-regressivo, de um modelo ARMA ou ainda de um modelo de regressão tradicional. Contudo, na realidade, a especificação mostrada em (3.27) não é a mais adequada (Enders, 1995). A razão disso reside no fato que um modelo para a seqüência de retornos observados { rt } e para a variância condicional é melhor estimado simultaneamente através da utilização de técnicas de Máxima Verossimilhança. Assim, ao invés da especificação dada em (3.27), é mais usual tratar
vt como sendo um distúrbio multiplicativo. O exemplo mais simples da classe dos

modelos de variância condicional com distúrbio multiplicativo é dado da seguinte forma:

ε t = vt α 0 + α1ε t2−1

(3.29)

na qual vt é um ruído branco com as seguintes propriedades:
σ2 v = 1 vt e εt-1 são independentes entre si α0 e α1 são constantes de tal modo que α0 > 0 e 0 < α1 > 1

Agora considere as propriedades da seqüência { εt }. Dado que vt é ruído branco independente de εt-1, os elementos da seqüência { εt } têm média igual a zero e são não-autocorrelacionados. A prova disto é a seguinte: tomando a expectativa nãocondicional de εt e dado que Evt = 0, segue-se que:
Eε t = E vt (α 0 + α1ε t2−1 )1/ 2 ou Eε t = Evt E (α 0 + α1ε t2−1 )1/ 2 = 0

[

]
(3.30)

Dado que Evt vt-i = 0, também é verdade que:

57

Eε t ε t −i = 0

(3.31)

para todo i≠0. A derivação da variância não-condicional de εt também é direta. Elevando εt ao quadrado e tomando a esperança não-condicional:
Eε t2 = E vt2 (α 0 + α1ε t2−1 ) ou Eε t2 = Evt2 E (α 0 + α1ε t2−1 )

[

]

(3.32)

Dado que σ2v = 1 e que a variância não-condicional de εt é idêntica à εt-1 (i.e.,
Eε t2 = Eε t2−1 ), a variância não-condicional é:

Eε t2 =

α0 1 − α1

(3.33)

Portanto, a média e a variância não-condicional não são afetadas pela presença do processo de erro dado em (3.29). Similarmente, dado que vt e εt-1 são independentes e que Evt = 0, a média condicional de εt é igual a zero:
E (ε t ε t −1 , ε t − 2 ,...) = Evt E (α 0 + α1ε t2−1 )1/ 2 = 0

(3.34)

Assim, a influência de (3.29) recai inteiramente na variância condicional. Dado que σ2v = 1, a variância de εt condicionada ao passado histórico de εt-1 , εt-2 , ...é:
E (ε t2 ε t −1 , ε t − 2 ,...) = α 0 + α1ε t2−1

(3.35)

Ou seja, a variância condicional de εt é dependente dos valores realizados de

ε t2−1 . Assim, se os valores realizados de ε t2−1 são elevados, a variância condicional em
t será igualmente alta. Na equação (3.34), a variância condicional segue um processo

auto-regressivo de 1ª ordem chamado ARCH (1). 58

Ao contrário de um processo auto-regressivo convencional, os valores dos coeficientes α0 e α1 de um modelo ARCH devem obedecer a uma restrição com o objetivo de assegurar que a variância condicional jamais apresentará valores negativos. Assim, é necessário assumir que ambos (α0 e α1) sejam positivos. Isto porque, se α0 é negativo, uma realização suficientemente pequena de εt-1 implicará variância condicional negativa. Analogamente, se α1 é negativo, uma realização suficientemente grande de εt-1 implicará em um valor negativo para a variância condicional. Ademais, para que seja assegurada a estabilidade do processo autoregressivo, faz-se necessário restringir α1 de tal modo que 0 < α1 < 1. As equações (3.29), (3.30), (3.32) e (3.34) ilustram as características essenciais de qualquer processo ARCH. Neste modelo, a estrutura do erro é tal que tanto a média condicional como a média não-condicional são iguais a zero. Além disso, a seqüência de { εt } é serialmente não-correlacionada, dado que para todo i ≠ 0, Eεtεt-i = 0. O ponto fundamental a se reter de um modelo ARCH é que erros não são independentes, uma vez que eles estão relacionados com seus segundos momentos (i.e., suas variâncias). A própria variância condicional é um processo auto-regressivo que resulta em erros condicionalmente heteroscedásticos. Quando o valor realizado de εt-1 é muito diferente de zero - de modo que α1 (εt)2 é relativamente alto – a variância de εt tenderá a ser igualmente muito elevada. Como se pode constatar momentaneamente em períodos de alta volatilidade, a heteroscedasticidade condicional na seqüência de { εt } resulta que a seqüência { rt } é um processo ARCH. Portanto, o modelo ARCH é capaz de captar períodos de tranqüilidade e de volatilidade na série de retornos financeiros { rt }. Para se examinar formalmente as propriedades da seqüência de retornos financeiros { rt }, a média condicional é dada por:
Et −1rt = a0 + a1rt −1

(3.36)

e a variância condicional:

59

Var ( rt rt −1 , rt − 2 ,...) = Et −1 ( rt − a0 − a1rt −1 ) 2 ou Var ( rt rt −1 , rt − 2 ,...) = Et −1 (ε t ) ou Var ( rt rt −1 , rt − 2 ,...) = α 0 + α1 (ε t −1 ) 2
2

(3.37)

Uma vez que α1 e ε t2−1 não podem ser valores negativos, o valor mínimo para a variância condicional é α0 . Para qualquer realização de εt-1 ≠ 0, a variância condicional de rt é positivamente relacionada com α1. A média e a variância nãocondicional de rt podem ser obtidas resolvendo a equação em diferenças para rt e extraindo a esperança matemática. Se o processo tem início em um passado suficientemente distante no tempo (de modo que a constante arbitrária A pode sem prejuízo ser ignorada), a solução para rt é:
∞ a0 + ∑ a1iε t −i (1 − a1 ) i =0

rt =

(3.38)

Desde que Eεt = 0 para todo t, a esperança não-condicional de (3.38) é:

Ert =

a0 (1 − a1 )

(3.39)

A variância não-condicional pode ser obtida de maneira análoga a (3.38). Dado que Eεtεt-i = 0 para todo i ≠ 0, a variância não-condicional de rt é:

Var (rt ) = ∑ a12iVar (ε t −i )
i =0

(3.40)

Do resultado que a variância não-condicional de εt é constante, i.e.:

Var (ε t ) = Var (ε t −1 ) = Var (ε t − 2 ) = ... =

α0 1 − α1

(3.41)

60

segue-se que:
⎡ α ⎤⎡ 1 ⎤ Var (rt ) = ⎢ 0 ⎥ ⎢ 2 ⎥ ⎣1 − α1 ⎦ ⎣ (1 − a1 ) ⎦

(3.42)

De (3.42), conclui-se que a variância da seqüência { rt } cresce tanto com a elevação de α1 como com o aumento de a1. O ponto essencial a ser retido é que, sob um instrumental de análise univariado, a estrutura de erros de um modelo ARCH pode ser utilizada para se modelar a volatilidade em diferentes períodos de tempo. Na concepção inicial do modelo ARCH, Engle (1982) levou em consideração processos de ordens mais elevadas do que aquele apresentado em (3.29). Assim, o processo ARCH (q) é dado da seguinte forma:

ε t = vt α 0 + ∑ α iε t2−i
i =0

q

(3.43)

Em (3.43), todos os choques de εt-1 a εt-q têm um efeito direto em εt, de modo que a variância condicional age como um processo auto-regressivo de ordem q. Como já ressaltado anteriormente, Bollerslev (1986) estendeu o trabalho original de Engle (1982) ao desenvolver uma técnica que permite que a variância condicional siga um processo ARMA (p, q). Suponha que o processo de erro seja dado por:

ε t = vt ht
sendo σ2v = 1 e:

(3.44)

ht = α 0 + ∑ α iε t2−i + ∑ β i ht −i
i =1 i =1

q

p

(3.45)

Dado que a seqüência { vt } é um ruído branco independente das realizações passadas de εt-i, a média condicional e não-condicional de εt é igual a zero. Tomando a esperança do valor de εt: 61

Eε t = Evt ht

(3.46)

O ponto importante é que a variância condicional de εt é dada por:

Et −1ε t2 = ht

(3.47)

e, portanto, a variância condicional de εt corresponde a ht na equação (3.45). A principal característica dos modelos GARCH é que a variância condicional dos distúrbios da seqüência { rt } constitui-se em um processo ARMA. Por isto, é de se esperar que os resíduos de um modelo ARMA ajustado apresentem essa característica. Assim, a título de ilustração, suponha que se estime um modelo ARMA para a seqüência { rt }. Se o modelo para esta seqüência é adequado, as funções de Autocorrelação e Autocorrelação Parcial dos resíduos devem indicar a presença de um ruído branco (white-noise process). No entanto, a função de autocorrelação do quadrado dos resíduos deve ajudar a identificar a ordem do processo GARCH. Dado que E t −1ε t2 = ht , é possível reescrever (3.45) como:

E ε = α 0 + ∑α ε
2 t −1 t i =1

q

2 i t −i

+ ∑ β i ht −i
i =1

p

(3.48)

A equação (3.48) equivale a um processo ARMA (p, q) para a seqüência

{ε }51.
2 t

Deste modo, se existir na série a presença de heteroscedasticidade

condicional, a partir da análise do correlograma deve ser possível identificar tal característica. Partindo do definido em (3.17), é possível reescrever as equações (3.44) e (3.45) com uma notação mais direta para o caso das séries de retornos rt:

51

Assim, o modelo GARCH (p, q) é similar a um modelo ARMA (p, q) no quadrado dos retornos.

62

rt = σ t ε t sendo: ε t ~ N (0,1) e Et (rt ) = σ t2 = ϖ + ∑ α i rt 2 i + ∑ β jσ t2− j −
2 i =1 j =i q p

(3.49)

sendo :: ϖφ0 α i eβ j ≥ 0

∑α i + ∑ β j π 1
i =1 j =1

q

p

O modelo ARCH generalizado apresentado em (3.49), também chamado GARCH (p,q), permite componentes auto-regressivos e também de médias móveis na modelagem da variância heteroscedástica. Neste modelo, a variância condicional é, então, expressa em função do quadrado dos retornos passados (como no modelo ARCH) e também do passado das próprias variâncias condicionais. Diz-se que a variância é modelada através de modelo GARCH com um processo de Inovação Gaussiana (ou GARCH Normal) quando se assume que

ε t ~ N (0,1) , como em (3.48). Neste modelo geral, ao se fixar p = 0 e q = 1, tem-se
que o modelo ARCH de 1ª ordem mostrado em (3.29) corresponde simplesmente a um modelo GARCH (0,1). Já se todos os valores de βi forem iguais a zero, o modelo GARCH (p, q) é equivalente a um ARCH (q). A vantagem em se utilizar um modelo GARCH é nítida. Isto porque, modelos ARCH de ordens superiores têm uma representação mais parcimoniosa52 na forma de um modelo GARCH, no qual o processo de identificação e estimação é feito de maneira muito mais direta. Isto é particularmente verdade quando a condição de nãonegatividade da variância condicional é satisfeita. Ou seja, quando todos os coeficientes são positivos, i.e., ϖ φ 0 , α i ≥ 0 e β j ≥ 0 para i = 1,...,q e j = 1,...,p.

52

Obviamente, quanto mais parcimonioso for o modelo, menor a necessidade de se impor restrições aos coeficientes.

63

Obedecidas essas condições, para que a variância condicional seja finita (i.e., para que o processo GARCH seja covariância estacionário53), outras restrições devem ser observadas. Para demonstrar isto, suponha que α (L) e β (L) sejam polinômios no operador da defasagem L, de modo que (3.49) possa ser reescrita como:

σ t2 = ϖ + α ( L)rt 2 + β ( L)σ t2−1

(3.50)

A notação α (1) denota o polinômio α (L) avaliado em L = 1, onde α (1) = α1 + α2 + +...+ α com:
Eε t = 0 Var (ε t ) =
q

. Bollerslev (1986) demonstra que um processo GARCH é estacionário54

[1 − α (1) − β (1)]

α0

(3.51)

Cov(ε t ε t −s ) = 0

para s ≠ 0, se α (1) + β (1) < 1. Ou seja, para assegurar que a variância condicional seja finita, todas as raízes características de (3.49) devem se situar dentro do círculo unitário, o que equivale a dizer que os choques não têm efeitos permanentes, i.e., existe um processo de reversão à volatilidade não-condicional. Obedecidas as restrições que garantem que a variância condicional e nãocondicional sejam ambas estritamente positivas, a variância não-condicional de um GARCH (p,q) é:

Var (rt ) =

ϖ
1 − ∑αi − ∑ β j
i =1 j =1 q p

(3.52)

53

Formalmente, um processo estocástico que apresente média e variância finita é covariância estacionário
2

quando para todo t e t-s: E(yt ) = E(yt–s) = µ ; Var(yt ) = Var(yt–s) = σ y e Cov(yt , yt–s) = Cov(yt-j , yt –j-s) =
2 γ s , onde µ, σ y

e

γs

são constantes.

64

Com relação à identificação da ordem de um processo GARCH, tecnicamente a escolha das defasagens p e q deveria ser feita através da minimização de um critério de informação como o Bayesian Criterion Information55 (BIC). Entretanto, em se tratando de séries de ativos financeiros, um resultado recorrente encontrado na literatura, e também amplamente difundido entre os agentes de mercado, é p = 1 e
q = 1 (Souza, 1999). Neste trabalho, todas as estimativas de VaR mostradas no

capítulo cinco foram realizadas com base na utilização do modelo GARCH (1,1) com Inovações Gaussianas, i.e., GARCH (1,1) com distribuição Normal. Algumas considerações devem ser feitas quanto à utilização dos modelos GARCH (MATLAB, 2002). A despeito de sua ampla utilização para avaliar riscos de ativos negociados nos mercados financeiro e de capitais, os modelos GARCH são apenas parte da solução final sobre alocação de capital. Isto porque, embora intensamente utilizados em séries de retornos de ativos, decisões financeiras complexas sobre alocação de capital raramente são tomadas com base somente em expectativas de retornos e volatilidades. Em segundo lugar, os modelos GARCH são especificações paramétricas que operam melhor sob condições de mercado relativamente estáveis. Embora o GARCH seja explicitamente designado para se modelar a variância condicional que se modifica no tempo, modelos desta classe geralmente falham ao tentar capturar fenômenos altamente irregulares, incluindo flutuações bruscas de mercado (crashs) e outros eventos não antecipados que podem levar a mudanças estruturais no mercado. Finalmente, os modelos GARCH geralmente falham ao tentar capturar por completo o fenômeno muito comum às séries financeiras conhecido como “caudas pesadas”. A heteroscedasticidade explica em parte o comportamento de caudas pesadas (fat tail behavior), mas, tipicamente, não tudo. Para lidar com esta limitação, distribuições de probabilidade com caudas mais “gordas”, como a t-Student, têm sido aplicadas na modelagem GARCH.
Se a variância não-condicional de uma série não é constante, diz-se que este processo é nãoestacionário. No entanto, o mesmo não pode ser dito com relação à variância condicional, i.e., a presença de heteroscedasticidade condicional não é motivo de não-estacionaridade (Enders, 1995). 55 O BIC, assim como o Akaike Information Criteria (AIC), é critério de seleção para a escolha da ordem do modelo a ser utilizado. Ambos são baseados no critério de parcimônia. Isto quer dizer que modelos mais complicados são penalizados pela inclusão de parâmetros adicionais.
54

BIC = −

2 ψ (ϑ * ) − k ln T , onde ψ (ϑ * ) é o valor da log-verossimilhança avaliada no ponto T

[

]

máximo, T é o número de observações utilizadas na estimação e k o número de parâmetros (MATLAB, 2002; Souza, 1999).

65

3.4 Método não-paramétrico

Como já explicado em (3.2), uma metodologia de cálculo do VaR é dita nãoparamétrica quando não se assume nenhum conhecimento explícito sobre a distribuição de probabilidades dos retornos financeiros. A seguir, no item (3.4.1), é apresentada a técnica não-paramétrica de obtenção do VaR conhecida como Simulação Histórica.

3.4.1 Simulação Histórica

Das técnicas de avaliação plena (full valuation) de um portfólio, a Simulação Histórica é a abordagem mais direta e intuitiva para obtenção do VaR. Ao não requerer nenhuma assertiva sobre a distribuição de probabilidades de um determinado ativo, essa técnica não-paramétrica consiste essencialmente em acessar o risco de mercado diretamente da distribuição empírica dos retornos passados através da obtenção do quantil correspondente ao nível de significância α% préestipulado. Desse modo, a concepção teórica inscrita numa Simulação Histórica está em utilizar a própria distribuição empírica dos retornos passados de um portfólio ou ativo específico com o argumento de que esta é capaz de refletir fielmente a verdadeira distribuição de probabilidades futura. Aplicando-se os pesos atuais dos ativos em carteira aos seus respectivos retornos históricos, uma Simulação Histórica reconstrói a distribuição empírica de uma carteira hipotética, de onde o VaR é extraído através da obtenção do percentil equivalente ao nível de significância desejado. O primeiro passo para se realizar uma Simulação Histórica consiste em dividir toda a série dos retornos verificados historicamente em um número igual de amostras de mesmo tamanho. À extensão da amostra, ou janela, chamamos de “tamanho da janela” (window size). Deste modo, considerando uma série de retornos históricos de tamanho T com window size N, é possível se construir T-N+1 amostras, de maneira que duas amostras subseqüentes têm um e apenas um dado em comum. Em seguida, seleciona-se o quantil referente ao nível de significância de α% para cada uma das janelas temporais amostrais. Assim, de modo a obter a estimativa do risco de mercado para o próximo dia em um instante qualquer t, utiliza-se o retorno 66

de um ativo ou portfólio no instante t e nos N-1 retornos que o precederam, ou seja, a Simulação Histórica resume-se à questão de extrair percentis de amostras sobre uma janela móvel (Goorbergh & Vlaar, 1999). Para efeito ilustrativo, suponha que se deseje utilizar uma Simulação Histórica para calcular o VaRt+1 (risco de mercado para o próximo dia de negociação) de uma carteira qualquer, a um nível de significância de 1% e utilizando uma janela temporal equivalente a 252 dias de negociação. O percentil de 1% de uma janela temporal de 252 dias será algum retorno situado entre a segunda e a terceira pior perda verificada nesta carteira durante o intervalo de tempo em questão. Alternativamente, para uma amostra de tamanho T de retornos:

χ t = {X 1 , X 2 ,..., X T }
as observações são ordenadas56 de modo que: X 1 ≤ X 2 ≤ X 3 ≤ ... ≤ X T

(3.53)

(3.54)

então o quantil empírico relativo ao nível de significância de α% para T par57 será: X [α %T ] + X [α %T +1] 2

^

%

=

(3.55)

^

De posse da estimativa do quantil empírico

%

dos retornos, constrói-se,

então, o VaR para o nível de significância de α% como sendo (Souza, 1999):

VaR(α %) = ∏ t −1

^

%

(3.56)

Algumas considerações devem ser tecidas com relação à metodologia de Simulação Histórica. O primeiro aspecto a chamar a atenção é que, por se tratar de
56 57

correspondente a α% de um conjunto de observações ordenadas de maneira crescente. Para T ímpar utiliza-se
^

Observações ordenadas desta maneira são chamadas de “estatísticas de ordem”. Os colchetes [ ] definem a parte inteira da operação. Assim, X[α%T] diz respeito ao retorno que se situa na posição

%

= X [α % T +1 ]

(Souza, 1999).

67

um método não-paramétrico, a técnica de Simulação Histórica não requer nenhuma assertiva a priori sobre a distribuição dos retornos. Isto em razão de não ser necessária a estimação de volatilidades ou correlações entre os ativos que compõem a carteira. Este fato não deve ser menosprezado, especialmente em se tratando da possibilidade de ocorrência de erros no processo de modelagem estatística58 que terminam por comprometer os resultados do VaR. Um outro ponto positivo implícito em um procedimento de Simulação Histórica diz respeito ao fato de que esta técnica, ao se basear em um conjunto de preços reais verificados historicamente, é capaz de incorporar não-linearidades e até mesmo características particulares da série como, por exemplo, assimetrias e excesso de curtose, ambas negligenciadas pela hipótese de normalidade dos retornos. No que tange às não-linearidades, na medida em que uma Simulação Histórica calcula o VaR para janelas temporais, ela é capaz de capturar exposições de primeira (Gamma) e segunda ordem (Vega) que se modificam no tempo, não dependendo de suposições específicas sobre as variáveis que explicam estes riscos ou sobre a estrutura estocástica subjacente ao mercado (Jorion, 1998). No entanto, algumas ressalvas quanto a esta metodologia devem ser feitas. Em primeiro lugar, essa técnica baseia-se em uma única realização do processo gerador dos dados (ou seja, na prática, uma única trajetória amostral de retornos é observada) e está fundada na premissa de que os retornos são independentes e identicamente distribuídos (i.i.d.). A grande implicação disso é que o método pondera igualmente todas as observações da série e assume que o passado é uma boa proxy do futuro. Disto resultam duas ordens de problemas. A primeira diz respeito à inclusão, com a mesma ponderação (grau de importância), de observações de um passado distante que contenham informações que podem não ser relevantes à geração do VaR num momento presente59. A segunda refere-se àquelas situações em que as volatilidades atuais encontram-se temporariamente mais elevadas60 do que

58 59

Risco de Modelo. Como é sabido, o comportamento dos participantes dos mercados financeiro e de capitais é influenciado predominantemente pelos fatos atuais mais recentes. Deste modo, extrapolando a idéia, caso se tome uma janela temporal muito extensa (por exemplo, 7 anos) para se calcular o VaR hoje, a informação dos retornos verificados quando da desvalorização do Real teriam a mesma importância do que um retorno verificado no dia exatamente anterior à realização deste cálculo. O VaR seria assim superestimado, supondo um momento atual de relativa estabilidade das variáveis chaves da economia brasileira. 60 Por exemplo, uma Simulação Histórica pode não prever adequadamente os efeitos de mudanças estruturais nos mercados financeiro e de capitais decorrentes do abandono de um regime de paridade cambial como ocorrido no Brasil no início de 1999.

68

aquelas verificadas historicamente, onde, neste caso, o VaR calculado com base em uma janela temporal tenderia a subestimar o risco de mercado. Outra questão problemática constatada na técnica de Simulação Histórica é que a qualidade dos resultados do VaR é extremamente sensível à janela utilizada para obtenção da distribuição empírica. Assim, a inclusão ou não de momentos em que ocorreram grandes perdas (outliers à esquerda da distribuição) ou longos períodos de relativa estabilidade nos retornos é capaz de produzir grandes diferenças nos resultados da estimativa do risco de mercado. Um último ponto a exigir cautela quanto à utilização de uma Simulação Histórica é que esta é muito eficaz para estimação da distribuição dos retornos em um intervalo concentrado ao redor da média, região na qual a distribuição empírica tende a ser bastante densa, mas não tem muito a informar sobre perdas superiores à pior perda verificada na janela temporal em questão. Deste modo, por definição, a maior perda estimada através de uma Simulação Histórica não pode ser maior do que aquela verificada na série histórica amostral (Danielsson & de Vries, 1997: apud Mollica, 1999).

3.5 O Value-at-Risk para uma carteira de ativos

Nas três metodologias descritas acima, considerou-se o cálculo do VaR para o caso univariado61, i.e., de um único ativo. Contudo, é possível se estender esse cálculo para uma carteira contendo dois ou mais ativos. A grande questão acerca da agregação do VaR para portfólios consiste em considerar a estrutura de correlação dos ativos em carteira. Ou seja, se a ação da Petrobrás e da Cia. Vale do Rio Doce compõem uma carteira de ações, e se seus retornos possuírem, por exemplo, correlação negativa, a queda no preço da ação da primeira deve vir acompanhada de aumento no preço da segunda. Em termos agregados, essa carteira apresentará uma oscilação menor e, portanto, um risco total menor em relação à soma do risco individual de cada ativo que a compõe. Seja Π a representação do preço de uma carteira de ativos i = 1,2,...,n e rp seu retorno de maneira que os retornos individuais e as participações de cada ativo na carteira são dados respectivamente por R = [r1 , r2 ,..., rn ] e w = [w1 , w2 ,..., wn ] , tais

61

Os modelos que relacionam os valores correntes de uma variável somente com seus próprios valores passados e com erros correntes e passados são chamados modelos de séries temporais univariadas.

69

que

∑w
i =1

n

i

= 1 . Considere ∑ = COV ( R) = E ( R − ER)( R − ER) ´ como sendo a matriz

[

]

de covariância dos retornos, C = CORR( R) como sua matriz de correlação e

σ = diag [σ 1 , σ 2 ,..., σ n ] como a matriz diagonal com os desvios-padrão dos retornos
(Souza, 1999). Tendo em vista que o retorno do portfólio é dado pelos retornos individuais dos ativos ponderados por suas respectivas participações r p = w´R , a variância dos
2 retornos da carteira será σ p = Var (r p ) = w´∑ w , em que ∑ é a matriz de variância e

covariância entre os ativos que a compõem. Tomando a suposição usual que os retornos são normalmente distribuídos, neste caso com distribuição Normal Multivariada62 para R ~ N (0, w´∑ w) , é possível, como visto em (3.10), obter-se o limite inferior do intervalo de confiança de rp para o cálculo do VaR, dado por:
VaRt = −σ p Z1−α % ∏ t −1

(3.57)

Mais especificamente, para o caso multivariado do VaR do portfólio, (3.57) também pode ser escrito da seguinte forma:
VaRtportfólio = − w´∑ wZ1−α % ∏ t −1

(3.58)

e o VaR de um ativo isolado i pode ser dado por:
VaRti = −σ i Z1−α % wi ∏ t −1

(3.59)

O VaR agregado do portfólio p será então: (3.60)

VaRtportfólio = VaRti ⋅ C ⋅ VaRti

62

Nos modelos multivariados ou causais, a série temporal é explicada (ou prevista) em função de seus valores passados e também em função de valores passados de outras variáveis.

70

Ou seja, levando-se em conta a estrutura de correlação dos retornos dos ativos, expressa na matriz C, e o VaR individual (i.e., o VaR não-diversificado) da participação de cada ativo da carteira, obtém-se o VaR agregado do portfólio (Souza, 1999). Das técnicas de aferição do VaR de um portfólio, aquela empreendida através da metodologia Delta-Normal63 certamente é a mais simples e direta. O ponto fundamental dessa técnica consiste em assumir que os ativos que compõem uma carteira de investimento apresentam distribuição normal de seus retornos e que o risco de mercado deste portfólio é, então, uma função linear dos riscos individuais desses instrumentos em carteira64. Deste modo, o VaR é um múltiplo do desviopadrão da carteira e este, por sua vez, é uma função linear das volatilidades individuais e covariâncias entre os ativos de um portfólio (Mollica, 1999). Sob a hipótese de normalidade, a distribuição dos retornos pode ser caracterizada inteiramente por sua média e seu desvio-padrão. Por exemplo, tomando o caso de um portfólio contendo um único ativo cujos retornos y apresentam média zero e variância σ2, temos:
y ~ N (0, σ 2 )

(3.61)

ou seja, a distribuição dos retornos do ativo em questão segue uma Normal com média zero e variância σ2. O VaR para esse ativo (e, neste caso, também do portfólio), com valor de mercado dado por Vm, será então:
VaR t* = Vmσ t Z α %

(3.62)

A conveniência de se assumir a hipótese de normalidade dos retornos está na facilidade e rapidez com que o cálculo do VaR pode ser obtido para uma carteira com um grande quantidade de ativos. Do estudo da distribuição marginal de um conjunto de variáveis aleatórias, sabe-se que se:

Esta é a metodologia utilizada pelo RiskmetricsTM, do banco J.P.Morgan. Para o caso de instrumentos financeiros ditos não-lineares, como alguns tipos de opções, a metodologia Delta-Normal assume a possibilidade de se encontrar uma posição equivalente no ativo subjacente através de uma linearização da função que liga seu preço ao preço do ativo objeto. Há várias objeções quanto a esta alternativa, sendo que a principal diz respeito ao fato desta não considerar exposições de ordens superiores como o Gamma e o Vega, o que acarreta em uma subestimação do VaR.
64

63

71

y = ( y1 , y2 ,......, yn )

(3.63)

é um conjunto de variáveis normalmente distribuídas, com médias:

µ = ( µ1 , µ 2 ....., µ n )

(3.64)

e matriz de variâncias e covariâncias:
⎡σ 11 Λ ⎢σ σ 22 Σ = ⎢ 21 ⎢ Μ Λ ⎢ ⎣σ n1 Λ Λ Λ Ο Λ

Μ⎥ ⎥ Μ⎥ ⎥ σ nn ⎦

σ 1n ⎤
(3.65)

então, a variável aleatória Y, composta por yn variáveis normais, cada uma ponderada por um peso wn:
Y = w1 y1 + w2 y2 + ...... + wn yn

(3.66)

também será normalmente distribuída, com média:
M = w1µ1 + w2 µ 2 + ...... + wn µ n

(3.67)

e variância S2:
S 2 = Σ Σ wi w jσ ij = w, Σw
i j

(3.68)

Assim, a distribuição dos retornos de um portfólio contendo n ativos e participações relativas w1, w2,..., wn, assumindo média nula, é dado por:
Y ~ N (0, w , Σw)

(3.69)

72

e o VaR da carteira de valor de mercado Vm e para um nível de significância α% será:
VaR = Vm Z1−α % w´∑ w

(3.70)

Alguns comentários devem ser feitos quanto à utilização de metodologias que se utilizam de premissas demasiadamente simples para o cálculo do VaR, como é o caso do método Delta-Normal. Como já adiantado acima, essa técnica é a mais simples e direta para a obtenção do VaR, ao supor que o retorno de cada ativo individualmente segue uma distribuição normal e que, em decorrência da propriedade de invariância das variáveis normais, carteiras compostas por variáveis normais são também normalmente distribuídas. Tal fato enseja algumas considerações de ordem qualitativa que levem em conta os prós e contras envolvidos na utilização dessa alternativa. A primeira grande vantagem está implícita no próprio conceito do método Delta-Normal. Ou seja, ao se assumir que um portfólio apresenta distribuição de seus retornos de maneira normal, então o VaR é simplesmente um múltiplo do desvio-padrão dessa carteira de ativos. Em termos gerais, a hipótese da normalidade confere um tratamento simples e direto para a obtenção do VaR, especialmente para situações em que o universo de ativos em carteira é muito amplo e é do interesse do usuário saber, por exemplo, o impacto da inclusão de um ou mais ativos à sua carteira (VaR incremental). Neste caso, ao se assumir a hipótese de normalidade para a distribuição dos retornos desse(s) ativo(s) agiliza a geração do VaR da carteira, fornecendo de modo rápido a estimativa do risco de mercado deste portfólio contendo diferentes ativos, que, por definição, têm seus retornos normalmente distribuídos. Ainda que carregue uma tendência de subestimar o VaR, de modo algum o método Delta-Normal deve ser considerado inferior com relação a outras metodologias, tendo em vista que a velocidade na tomada de decisões sobre alocação de capital é fundamental. Por exemplo, um operador de mesa que precisa saber o resultado instantâneo da inclusão (VaR incremental) de um ou mais ativos em sua carteira, ao se utilizar do Delta-Normal terá um VaR que reflete com grande velocidade as mudanças de exposição ao risco de mercado. Uma segunda vantagem advém do conteúdo informacional que o método DeltaNormal é capaz de carregar, particularmente a possibilidade de conversão dos 73

parâmetros que produzem o VaR (Jorion, 1998; Dowd, 1998). Sob a hipótese de normalidade dos retornos, as medidas de VaR dependem essencialmente de dois parâmetros: o horizonte escolhido e o nível de confiança. Ambos podem ser ajustados convenientemente, de maneira que é plenamente possível converter medidas de risco de mercado para diferentes horizontes escolhidos (holding
periods)65 e diferentes níveis de confiança (confidence levels). Deste modo, por

exemplo, tomando como base a distinção dos parâmetros utilizados pelo
RiskMetricsTM daqueles recomendados pelo Comitê da Basiléia – nível de confiança

de 95% para o horizonte de um dia e nível de confiança de 99% para um horizonte de 10 dias respectivamente -, sob o método Delta-Normal, a seguinte conversão torna-se possível:
VaRCB = 2,33σ 10 PM = 4,465 VaRRM TM = 1,65σ 1PM

(3.71)

ou seja, coeteris paribus, o Comitê da Basiléia (CB) propõe um VaR 4,465 vezes maior66 do que aquele verificado pelo método RiskMetricsTM. Contudo, a facilidade de conversão do VaR para diferentes períodos está fundada em uma premissa de difícil verificação prática nas séries financeiras, qual seja, a de que os retornos são independentes e identicamente distribuídos (i.i.d.) (Mollica, 1999). A hipótese i.i.d., como já explicado, implica assumir que o retorno em um dado instante t é independente daquele verificado em t-1 e, por sua vez, tomá-los como sendo identicamente distribuídos quer dizer que todas as observações da série podem, sem prejuízo em termos de resultados, receber a mesma ponderação, i.e., a informação contida em um retorno ocorrido em t-100 tem, para fins de estimação, a mesma importância do que o retorno do dia exatamente anterior t-1. Como será visto em (4.1), essa conjectura é pouco plausível para o caso de séries financeiras, pois dois fatos recorrentemente observados nestas são: elevada influência das observações mais recentes e heteroscedasticidade (volatilidades variam ao longo do tempo).
65

Vale dizer que o ajuste temporal não é válido para posições em instrumentos não-lineares como opções. Isto se deve à possibilidade de ajustes dinâmicos nas quantidades do ativo objeto, de maneira que o risco de uma posição em opções é bastante diferente do risco diário ajustado pela raiz quadrada do prazo. Assim, ajustes da volatilidade diária para horizontes mais extensos, através da raiz quadrada do prazo, são rigorosamente válidos somente quando as posições em carteira forem constantes. 66 E, conseqüentemente, requerimentos de capital maiores para fazer frente ao risco de mercado.

74

Mais duas ressalvas podem ser feitas acerca do método Delta-Normal. A primeira concentra-se no fato de que este método deixa de lado outras importantes características das séries financeiras, o que, muitas vezes, pode levar a uma imprecisão (mais especificamente, subestimação) do risco de mercado de uma carteira. Por exemplo, é muito comum a existência, em séries financeiras, de excesso de curtose em relação à distribuição normal, o que significa que a probabilidade de ocorrência de outliers situados à esquerda ou à direita da distribuição é muitas vezes superior àquela verificada em uma Normal, de modo que ao se assumir a hipótese de normalidade, em verdade, o risco de mercado será subavaliado. Um último ponto a ser comentado, como já destacado anteriormente, refere-se à aplicação do modelo Delta-Normal para portfólios contendo ativos financeiros considerados não-lineares, como são os casos dos diversos tipos de contratos de opções. Ao realizar uma aproximação de primeira ordem sobre o preço do ativo objeto desses instrumentos, através da utilização de uma Expansão de Taylor, a abordagem Delta-Normal não leva em consideração uma série de outros fatores de risco a que estão expostas as opções, algo que pode acarretar uma subestimação do risco de mercado dessas posições e, conseqüentemente, de todo portfólio.

75

4 Análise Estatística das Séries de Ações
4.1 Fatos estilizados das séries de ativos financeiros

A boa adequação de um modelo estatístico a um conjunto de dados observáveis é algo plenamente desejável quando o objetivo é explicar (ou prever) o comportamento de uma dada variável no tempo. Em geral, a especificação da técnica mais apropriada a ser utilizada é guiada por um conjunto de fatos estilizados (stylised facts) observados empiricamente (Enders, 1995; Mollica, 1999; MATLAB, 2002). Abaixo, são apresentados alguns dos principais fatos estilizados presentes nas séries de retornos de ativos financeiros.

Volatilidade não é constante ao longo do tempo (Heteroscedasticidade) -> de maneira geral, as séries financeiras são ditas “condicionalmente heteroscedásticas”, i.e., ainda que a variância não-condicional (ou de longo prazo) seja considerada constante, existem períodos específicos em que a volatilidade (variância) oscila entre patamares mais altos e / ou mais baixos; Caudas Pesadas (fat tails) -> a distribuição de probabilidades dos retornos de ativos financeiros geralmente exibe caudas mais pesadas do que as verificadas em uma distribuição Normal ou Gaussiana. O fenômeno das caudas pesadas é também conhecido como excesso de curtose67. Em geral, as séries financeiras exibem distribuição de probabilidades com caudas pesadas e, desse modo, são conhecidas como leptocúrticas; Agrupamentos de volatilidade (Volatility clustering) -> a comprovação empírica de estudos de séries financeiras revela que é comum o fato de que grandes (baixos) valores em um determinado instante de tempo são seguidos por valores também elevados (baixos) em períodos subseqüentes, não necessariamente na mesma direção. Em qualquer um dos casos, alterações no patamar de volatilidade de um período para o outro são tipicamente imprevisíveis68. Também conhecido como “clusters de

67

A curtose representa o quarto momento em relação à média. Se a medida adimensional da curtose de uma distribuição for maior do que três, a distribuição é dita leptocúrtica, se menor que três platicúrtica e se igual a três mesocúrtica - como ocorre em uma distribuição normal (Hoffmann, 1998). 68 Isto porque, nos modelos de variância condicional, grandes distúrbios (positivos ou negativos) tornamse parte do conjunto de informação utilizado para se construir a previsão da variância do próximo período.

77

volatilidade”, este efeito responde em parte pelo fenômeno das caudas pesadas tipicamente observadas em séries financeiras69. Estatisticamente, os agrupamentos de volatilidade são descritos pela presença de elevada autocorrelação no quadrado dos retornos, o que implica que a variância condicional dos retornos deve apresentar dependência temporal dos choques passados (Hotta et alli, 2003); Efeitos de Alavancagem (Leverage Effect) -> Black (1976) notou que os retornos observados em ativos financeiros são negativamente

correlacionados com as mudanças na volatilidade. Ou seja, para determinadas classes de ativos (especialmente ações) a volatilidade tende a aumentar em resposta a retornos mais baixos do que o esperado e a cair em resposta a retornos mais elevados do que o esperado70. Assim, se o preço de uma ação está em queda, tende a ocorrer um aumento da alavancagem da firma e, em geral, concomitantemente, um aumento da incerteza, fatos que tendem a gerar aumento da volatilidade; Memória longa e persistência -> evidências empíricas comprovam que a volatilidade (variância) em séries de ativos financeiros é altamente persistente. Tal constatação está associada ao fato de que a dependência da observação mais recente em relação a observações mais defasadas na amostra diminui muito vagarosamente conforme aumenta a distância entre elas. Num contexto linear de séries de tempo, essa idéia é caracterizada pelo lento declínio das autocorrelações; Retornos não-independentes ao longo do tempo -> a presença de clusters de volatilidade e a verificação de ocorrência de memória longa e persistência, juntos, inviabilizam a premissa de independência dos retornos em séries de ativos financeiros; Co-movimentos de volatilidade -> algumas séries financeiras apresentam movimentos comuns de volatilidade. De fato, a existência de comovimentos de volatilidade não é de todo surpreendente em um contexto de
Deste modo, a informação de grandes choques (positivos ou negativos) permanece e influencia as previsões de volatilidade por diversos períodos. 69 De fato, parte do fat tail effect também pode ser resultado da distribuição de probabilidade dos retornos ser do tipo não-Gaussiana como, por exemplo, uma t-Student. 70 Assim, este tipo de efeito sugere um modelo de variância condicional que inclua uma resposta assimétrica à choques positivos e negativos não-antecipados. Um exemplo de técnica que expressa esta característica é um EGARCH (p, q), que é um modelo assimétrico de variância condicional designado para capturar efeitos de alavancagem.

78

integração dos mercados financeiro e de capitais e de internacionalização da riqueza financeira no plano internacional, onde as inovações informativas são acessíveis aos agentes em tempo real.

4.2 Descrição das séries de ações selecionadas

Um primeiro passo importante para realização de um trabalho empírico de obtenção do VaR consiste em analisar as características estatísticas das séries utilizadas para se testar os modelos selecionados. Tal exercício é fundamental para avaliar e testar premissas usualmente utilizadas tais como normalidade e independência dos retornos financeiros. Antes disto, convém esclarecer quatro questões de ordem prática relativas às séries estudadas. Em primeiro lugar, as séries de preços das ações das empresas Petrobrás e Companhia Vale do Rio Doce passaram por um processo de linearização conhecido como “ajuste por proventos71”. Este ajuste é um procedimento muito comum àqueles que trabalham com séries de ações. Para se entender o que isso significa, considere o seguinte: uma ação que está sendo negociada em mercado é dita “com-dividendo” se um comprador qualquer desta ação puder exercer o direito de receber o dividendo que lhe é conferido quando da compra deste ativo. Uma ação é “com-dividendo” até a data da Assembléia72 que delibera sobre a política de distribuição de lucros para seus acionistas. No primeiro dia após essa Assembléia, a ação é dita “ex-dividendo”. Isto significa que, se um investidor decide comprá-la neste dia, não lhe está mais assegurado o direito de usufruto da política de distribuição de dividendos definida pela empresa no dia anterior. Tal fato é intuitivo: para fins de Assembléia, somente serão considerados acionistas, podendo assim receber os lucros distribuídos pela empresa, aqueles investidores que detiverem a menor parcela do capital da empresa, na forma de uma ação, naquela data específica, de maneira que é indiferente se um investidor comprou a ação cinco meses antes ou no dia da Assembléia. Deste modo, é comum que no dia da realização da Assembléia que define a política de distribuição do lucro aos acionistas, o preço da ação da empresa expresse uma estimativa de dividendo a ser pago por ação, i.e., seu preço sofre uma pressão altista. No dia seguinte à Assembléia, a ação torna-se “ex-dividendo” e, através de um ajuste de
71 72

Do latim proventus, refere-se a lucro ou rendimento. Em geral, as Assembléias Gerais Ordinárias (AGO) acontecem duas vezes ao ano (uma vez a cada semestre).

79

mercado, seu preço tende a cair na razão direta do valor do dividendo a ser pago por ação definido no dia anterior. O ajuste por proventos, também conhecido como ajuste de cotações por proventos, então, nada mais é do que a subtração do valor do dividendo, definido em Assembléia, a ser pago por ação, do próprio preço da ação negociada em mercado. Assim, para se anular esses efeitos de picos e quedas derivados desses ajustes de cotações, e, portanto, expurgar o efeito de uma volatilidade que é intrínseca a qualquer ação que pague dividendos, o que se fez com as séries de preços foi subtrair do último dia em que a ação é “com” para trás o valor do dividendo definido em Assembléia, promovendo, desta maneira, uma linearização da série de preços com relação à sua política de distribuição de dividendos. Um segundo ponto a ser destacado diz respeito à liquidez desses papéis. Por serem dois dos papéis mais negociados na Bovespa, as ações da Petrobrás e da Vale do Rio Doce apresentaram formação de preço em mercado para todos os dias da amostra, que vai de 02/01/1997 a 02/01/2004, num total de 1729 observações. Isto quer dizer que não se observou em nenhum instante da amostra a ocorrência de
missing values, i.e., dias em que não houve formação de preço para esses papéis.

Portanto, não foi necessário a utilização de nenhum procedimento para completar a ocorrência de possíveis missing values 73. Em terceiro lugar, faz-se necessário esclarecer uma questão relativa ao chamado efeito calendário74. Como será demonstrado, os gráficos das séries de retornos das ações da PETR4 e da VALE5 revelam a existência de picos de retornos bastante pronunciados, valores esses que coincidem com três momentos de grande nervosismo no mercado financeiro, a saber: crise asiática, crise da moratória russa e maxidesvalorização do real. Ainda que esses valores possam ser vistos como outliers, o trabalho optou por mantê-los na amostra75. Uma solução alternativa consistiria em retirá-los da amostra ou inserir variáveis dummies76 referentes a grandes retornos positivos ou negativos que destoam em demasia da média da amostra (ver Morais & Portugal, 1999).

73

Existem várias formas de se lidar com a ocorrência de missing values, sendo que a mais simples consiste em repetir a última cotação observada em mercado. 74 Ponto muito bem observado pelo professor Emerson Fernandes Marçal quando da qualificação do trabalho. 75 A conseqüência disso pode ser percebida pela visualização do Quadro 1 (p. 94), onde fica nítida a presença de uma estrutura de correlação para o primeiro momento da série de PETR4. 76 Sobre a utilização de variáveis dummies com esta finalidade, consultar Morais & Portugal (1999).

80

Finalmente, o quarto e último ponto refere-se à origem dos dados analisados. As séries de preços foram obtidas junto ao Departamento de Controle de Risco da Companhia Brasileira de Liquidação e Custódia77 (CBLC / Bovespa), que, por sua vez, teve como fonte primária a Economática78.

A CBLC é a câmara (clearing) responsável pela guarda (Custódia eletrônica) fiduciária de todos os ativos negociados na Bolsa de Valores de São Paulo e também pela liquidação física (entrega dos ativos) e financeira (entrega do financeiro) de todas as operações realizadas neste ambiente de negociação. 78 A Economática é uma broadcast (empresa de transmissão de informações) especializada no mercado de ações. É amplamente utilizada por analistas do mercado de capitais para dar suporte às tomadas de decisão de investimentos.

77

81

4.2.1 Petróleo Brasileiro S.A. Petrobrás – PETR4

A ação da Petrobrás – PETR4 é uma das mais líquidas entre as negociadas na Bolsa de Valores de São Paulo. Abaixo, foram elaborados os gráficos com a evolução dos preços e dos retornos financeiros desta ação. Os preços são aqueles observados no fechamento do pregão diário da Bovespa. Já os retornos são expressos em forma logarítmica79, através da seguinte fórmula:

rt = ln(

pt ), p t −1

(4.1)

sendo que pt representa o preço da ação no dia t e pt-1 o preço da ação no dia anterior (t-1). Os Gráficos 1 e 2 ilustram, respectivamente, as séries de preços e de retornos financeiros da ação da Petrobrás.

Gráfico 1 - Preço de Fecham ento (PETR4) 90 Preço da Ação (R$ correntes)

60

30

0 2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/1/2004

79

Esta opção se deve à suposição de que os retornos logarítmicos se aproximam mais de uma distribuição Normal que os retornos efetivos e se justifica em virtude de os métodos paramétricos abordados neste trabalho basearem-se na hipótese de lognormalidade dos retornos.

82

Gráfico 2 - Logaritm o dos Retornos (PETR4) 0.30 0.20

Retornos Logarítmicos

0.10 0.00 -0.10 -0.20 -0.30

2/1/1997

2/5/1997

2/9/1997

2/1/1998

2/5/1998

2/9/1998

2/1/1999

2/5/1999

2/9/1999

2/1/2000

2/5/2000

2/9/2000

2/1/2001

2/5/2001

2/9/2001

2/1/2002

2/5/2002

2/9/2002

2/1/2003

2/5/2003

2/9/2003

A partir da observação do Gráfico 1, percebe-se que a série de preços de PETR4 é claramente não-estacionária. A transformação da série de preços para retornos logarítmicos contorna bem este problema, o que pode comprovado pelos testes de Dickey-Fuller e de Phillips-Perron80, que atestam estacionaridade81 para a série de retornos logarítmicos diários de PETR4. Tal fato já era esperado, pois a série ilustrada no Gráfico 2 nada mais é do que a primeira diferença do logaritmo dos preços de PETR4. No Gráfico 2, está nítido que a hipótese de homoscedasticidade dos retornos (i.e., variância constante) não se sustenta. É possível se visualizar clusters de volatilidade bastante claros em razão de contágios sofridos pela economia brasileira a crises internacionais e também em virtude de crises que tiveram o epicentro na própria Terra Brasilis. Cronologicamente, tem-se que os seguintes fatos marcantes e seus respectivos efeitos nos retornos da PETR4: Crise Asiática (no segundo semestre de 1997) respondeu por uma queda de aproximadamente 20% (segundo pior retorno observado na série, em 27/10/1997) e, logo em seguida, por um aumento próximo de 8% (28/10/1997) no retorno; a tensão pré-eleitoral e a crise da moratória da Rússia (no segundo semestre de 1998) respondem por uma forte oscilação no valor desta

80

As estatísticas de Dickey-Fuller e de Phillips-Perron testam a hipótese nula de presença de raiz unitária (i.e., não-estacionaridade) no processo gerador dos dados. Para maiores detalhes sobre estes testes, ver Dickey & Fuller (1979), Phillips-Perron (1988), Hamilton (1994) e Eviews (1998). 81 Para que uma série temporal possa ser modelada adequadamente por um AR, um MA ou um ARMA, ela deve ser estacionária, i.e., uma série cujas média, variância e função de autocorrelação não variam com o tempo.

2/1/2004

83

ação, com uma queda de 18% (terceiro pior retorno observado na série, em 10/09/1998) e aumento de 14% (no dia seguinte, 11/09/1998); e, finalmente, a mudança do regime cambial brasileiro, ocorrida logo na primeira quinzena de 1999, que também provocou queda nos retornos da ação Petrobrás da ordem de -21,15% (pior retorno observado na série, em 14/01/1999) e rápida recuperação de 18% (logo no dia seguinte, em 15/01/1999). Considere agora o Gráfico 3, que mostra o histograma do logaritmo dos retornos de PETR4. Mais abaixo, na Tabela 2, estão demonstradas as estatísticas descritivas desta série.

Gráfico 3 - Histogram a do Logaritm o dos Retornos (1729 obs. de PETR4) 350 300 250 200 150 100 50 0

Frequência

0.0028

0.0223

0.0418

0.0613

0.0808

0.1003

0.1197

0.1392

0.1587

-0.2116

-0.1921

-0.1726

-0.1531

-0.1336

-0.1141

-0.0946

-0.0752

-0.0557

-0.0362

Tabela 2

Estatísticas Descritivas de PETR4 Média Erro padrão Mediana Desvio padrão Curtose Assimetria Mínimo Máximo N° Observações 0,001066157 0,000721164 0,000627597 0,030012916 7,269777502 -0,259140372 -0,211582685 0,187956949 1729

-0.0167

0.1782

84

Um primeiro aspecto a se notar é que a média da série dos logaritmos dos retornos de PETR4 é muito próxima de zero. Para avaliar se essa estatística corresponde efetivamente a zero, foi empreendido o seguinte teste82:
H0 : µ = 0
H1 : µ ≠ 0

(4.2)

Para a hipótese nula de que a média do processo é igual a zero, o valor de prova reportado da estatística t, correspondente ao p-value, foi de 13,95%. Para esse tipo de teste, se o valor da probabilidade é menor que o nível de significância em que o teste é realizado, rejeita-se a hipótese nula. Ou seja, para qualquer nível de significância razoável, i.e., α = 5% ou α = 10%, assumir média zero para a série do logaritmo dos retornos de PETR4 é uma boa proxy. O coeficiente de assimetria aponta um valor de -0,259. É sabido que nas distribuições simétricas, como a Normal, o terceiro momento em relação à média é sempre igual a zero83, nas assimétricas à direita é positivo e nas assimétricas à esquerda é negativo. Portanto, o coeficiente de assimetria encontrado acima revela que a distribuição do logaritmo dos retornos de PETR4 é assimétrica à esquerda. Já o coeficiente de curtose está associado ao quarto momento em relação à média. Se este apresenta valor igual a 3 (três), como ocorre numa distribuição Normal, a distribuição é denominada mesocúrtica, se maior que 3 (três) leptocúrtica e se menor que 3 (três) platicúrtica. A partir do valor encontrado de 7,269, conclui-se que a distribuição do logaritmo dos retornos de PETR4 é leptocúrtica. Juntos, o coeficiente de assimetria e de curtose já indicam que assumir normalidade para a distribuição do logaritmo dos retornos de PETR4 não é uma boa aproximação. Para confirmar essa tese, empreendeu-se um teste conhecido como Jarque-Bera84. Este teste estatístico avalia a diferença dos coeficientes de assimetria e de curtose da distribuição empírica em relação àqueles verificados em uma distribuição Normal:

82 83

Teste realizado no software econométrico Eviews 3.0. Entretanto, o inverso não é verdade, i.e., o fato de o terceiro momento em relação à média ser igual a zero não permite concluir que a distribuição é simétrica (ver Hoffmann, 1998, p.66)

85

JB =

N −k 6

⎡ 2 1 2⎤ ⎢ S + 4 ( K − 3) ⎥ ⎣ ⎦

(4.3)

na qual S é o coeficiente de assimetria (Skewness), K é o coeficiente de curtose (Kurtosis) e k representa o número de coeficientes estimados para se criar a série. Sob a hipótese de distribuição Normal, a estatística do teste Jarque-Bera apresenta distribuição qui-quadrado ( χ 2 ) com dois graus de liberdade. A probabilidade reportada é aquela do teste Jarque-Bera exceder (em valor absoluto) o valor observado sob a hipótese nula, de modo que uma probabilidade baixa leva à rejeição da hipótese nula de distribuição Normal. O valor encontrado do Jarque-Bera foi 3770,693, com probabilidade zero de se aceitar a hipótese nula de distribuição Normal para a série de retornos logarítmicos de PETR4. Outra maneira de se avaliar a hipótese da distribuição empírica ser ou não normalmente distribuída é através de uma ferramenta de análise comparativa de distribuições de probabilidade conhecida como QQ-Plot. Esta opção oferece uma visão dos quantis de uma distribuição Normal contra os quantis de uma distribuição empírica85. Se as duas distribuições forem as mesmas, o QQ-Plot gera como resultado uma linha reta na diagonal. Caso isso não ocorra, as duas distribuições diferem entre si. O grau e a forma do desvio em relação à linearidade diagonal provê um indicativo da natureza desta diferença. O Gráfico 4 mostra o QQ-Plot de uma distribuição Normal contra a distribuição do logaritmo dos retornos de PETR4.

84

O Jarque-Bera Test é oferecido como output quando solicitadas as estatísticas descritivas no Eviews 3.0. Este procedimento testa a hipótese nula que a distribuição de probabilidades de uma variável é Normal. 85 Para fins de comparação com uma Normal ou com a série empírica, o software Eviews 3.0 oferece também outras opções de distribuição tais como distribuição Uniforme, distribuição Exponencial, etc.

86

Gráfico 4 - QQ-Plot (Normal versus PETR4)

4

Quantis de uma Normal

2

0

-2

-4 -10 -5 0 5 10

Quantis de Logaritmo dos Retornos de PETR4

Corroborando a argumentação anterior, é possível visualizar pelo Gráfico 4 que a distribuição do logaritmo dos retornos de PETR4 não adere bem à hipótese de normalidade. A disparidade está bem visível nos quantis mais afastados em relação à média, i.e., nas observações extremas, as quais são fundamentais para o cálculo do VaR. A Tabela 3 ilustra a dimensão dos valores extremos situados na cauda inferior da distribuição para diferentes níveis de significância estatística.

Tabela 3

Percentis de Retornos Logarítmicos de PETR4 (cauda esquerda da distribuição) Nível de Significância Retorno Observado 10% 7,50% 5% 2,50% -0,0564 1% 0.5% 0,10%

-0,030093 -0,035261 -0,043756

-0,074723 -0,100084 -0,185717

Como se pode ver, os valores absolutos observados nos diferentes percentis são bastante diferentes da média do processo, assumida como sendo igual a zero. Por exemplo, para o percentil de 0,10%, observou-se um retorno negativo da ordem de

87

-18%, ocorrido no segundo semestre de 1998. Possivelmente, essa queda abrupta não seria captada por métodos tradicionais de cálculo do VaR86. Finalmente, uma última forma de se contrapor a distribuição do logaritmo dos retornos com uma Normal é comparar o número de observações encontradas nos percentis da cauda inferior de cada uma dessas distribuições de probabilidades. É sabido que para uma distribuição Normal, a média é igual à mediana, de maneira que 50% das observações encontram-se à esquerda e 50% à direita da média (ou da mediana, como quiser). Assim, supondo normalidade para a distribuição com 1729 observações, os percentis corresponderão à aplicação dos respectivos percentuais sobre 1729. Por exemplo, é de se esperar que no percentil 10% de uma Normal sejam encontradas 172,9 observações. A Tabela 4 fornece o comparativo entre o número de observações nos percentis da cauda inferior da distribuição empírica do logaritmo dos retornos de PETR4 e de uma Normal.

Tabela 4

N° de Observações nos Percentis: Retornos Logarítmicos de PETR4 versus Normal Nível de Significância Distribuição Normal Distribuição de PETR4 10% 172,9 174 7,50% 129,6 131 5% 86,45 88 2,50% 43,22 45 1% 17,29 19 0.5% 8,64 10 0,10% 1,729 3

Apesar dos testes rejeitarem a hipótese nula de normalidade, a análise da Tabela 4 permite inferir que, dependendo da probabilidade considerada, o problema de se assumir esta conjectura parece não ser tão grave na cauda inferior da distribuição do logaritmo dos retornos de PETR4. O número de observações encontrado em cada percentil da distribuição empírica é muito próximo daquele verificado em uma Normal. O segundo aspecto a ser testado na análise estatística diz respeito à validade do pressuposto de independência do logaritmo dos retornos, bem como do quadrado dos retornos, i.e., da variância. A forma mais comum de se fazer isso é através da análise do correlograma, o qual oferece a visualização das funções de autocorrelação e autocorrelação parcial. Essas funções caracterizam a trajetória de dependência
Ou seja, supondo normalidade. Uma forma de lidar com esse problema é conduzir stress tests paralelos e avaliar o impacto destes no VaR da ação. De fato, esta é a sugestão feita pelo Comitê Basiléia (ver BIS, 1996).
86

88

temporal de uma série e, tipicamente, apresentam bons resultados na análise de séries temporais. Anteriormente à apresentação do correlograma dos retornos, convém esclarecer os dois conceitos envolvidos neste tipo de análise. A função de correlação fornece a seqüência de correlações entre (rt e rt-1), (rt e rt-2), (rt e rt-3) e assim por diante, sem manter constantes as defasagens intermediárias (Hill et alli, 2000). A função de autocorrelação γ da série rt na defasagem k é dada por (Eviews, 1998):
T
− −

γ k = t = k +1

∑ (rt − r )(rt −k − r ) ∑ (r − r )
t =1 t T

2

(4.4)

sendo rt a média da série dos retornos e γk o coeficiente de correlação de uma série dividida em k períodos iguais. Se γ1 é diferente de zero, significa que a série apresenta correlação serial de 1ª ordem. Se γk desaparece de forma mais ou menos geométrica conforme aumenta k, isto é um sinal de que a série obedece um processo autoregressivo (AR) de ordem reduzida. Já se γk rapidamente cai a zero após poucas defasagens, pode-se inferir que a série obedece um processo de média móvel (MA – moving average) igualmente de ordem reduzida. A função de autocorrelação parcial, por sua vez, representa a seqüência de correlações entre (rt e rt-1), (rt e rt-2), (rt e rt-3) e assim por diante, desde que os efeitos de defasagens anteriores sobre rt permaneçam constantes (Hill et alli, 2000). Ou seja, a autocorrelação parcial entre rt e rt-2 tem o efeito de rt-1 sobre rt desconsiderado (“expurgado”) ou mantido constante; a correlação parcial entre rt e rt-3 tem os efeitos de rt-1 e rt-2 sobre rt mantidos constantes e assim sucessivamente. A função de autocorrelação parcial φ da série rt na defasagem k é dada por (Eviews, 1998):

φk = r1
k −1

para k = 1

ou
rk − ∑ φk −1, j Tk − j 1 − ∑ φk −1, j T j
j =1 j =1 k −1

(4.5) para k φ 1

φk =

89

A função de autocorrelação de um processo autoregressivo puro de ordem p, AR (p) é truncado na defasagem p, enquanto que a função de autocorrelação parcial de um processo de média móvel (MA) puro decresce assintoticamente a zero. O Quadro 1 apresenta as funções de autocorrelação e autocorrelação parcial para os retornos logarítmicos de PETR4. As duas últimas colunas à direita reportadas no correlograma correspondem às Estatísticas Q de Ljung-Box e seus respectivos p-values. A Estatística Q87 na defasagem k testa a hipótese nula de que não existe autocorrelação acima da ordem k. Se a série não se baseia nos resultados da estimação de um modelo ARIMA, então, sob a hipótese nula, a Estatística Q é assintoticamente distribuída como uma χ 2 (qui-quadrado) com graus de liberdade correspondentes ao número de autocorrelações. Caso a série represente os resíduos da estimação por um modelo ARIMA, os graus de liberdade apropriados devem ser ajustados para representar a diferença entre o número de autocorrelações e número de termos AR e de MA previamente estimados (Eviews, 1998).

Quadro 1 - Correlograma do Logaritmo dos Retornos de PETR4 Sample: 1 1729 Included observations: 1728 Autocorrelation Partial Correlation Lag AC PAC Q-Stat |* | *| | | | | | | | | | | | | | | | | | | | | | |* *| | | | | | | | | | | | | | | | | | | | | | | 1 2 3 4 5 6 7 8 9 10 11 12 0.121 -0.045 -0.059 -0.035 -0.016 -0.016 0.020 0.056 0.032 0.051 -0.010 -0.016 0.121 -0.060 -0.046 -0.025 -0.014 -0.019 0.020 0.048 0.019 0.052 -0.014 -0.003 25.173 28.678 34.611 36.781 37.234 37.691 38.375 43.816 45.549 50.110 50.277 50.733

Prob 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000

87

A Estatística Q é dada por Q LB = T (T + 2)

∑ T − j , sendo r
j =1

k

r j2

j

a j-ésima autocorrelação e T o

número de observações. Esta estatística é usualmente utilizada para testar se uma série representa um ruído branco. Um problema de ordem prática neste teste encontra-se na escolha da ordem da defasagem a ser utilizada no teste: caso seja muito pequena, o teste pode não detectar correlação serial em defasagens de ordem superior; por outro lado, com a escolha de uma defasagem mais afastada, o teste apresentará baixo poder, uma vez que as correlações significativas de uma defasagem para outra podem ser diluídas, ou dissipadas, por correlações não-significativas em outras defasagens (Eviews, 1998).

90

As linhas tracejadas verticais nas duas primeiras colunas do quadro acima correspondem aproximadamente ao limite de dois erros padrão, computado como ± 2 T , o que fornece um valor próximo de 0,048, i.e., 4,8%. Se a autocorrelação,

ou a autocorrelação parcial, encontrar-se dentro deste intervalo, diz-se que esta não é significativamente diferente de zero a um nível de significância de aproximadamente 5%. O correlograma do logaritmo dos retornos aponta picos fora do intervalo de confiança nas defasagens um e três da autocorrelação e nas defasagens um e dois da autocorrelação parcial. Do ponto de vista de uma importante premissa utilizada para o cálculo do VaR, qual seja, a de que os retornos são i.i.d. (independentes e identicamente distribuídos), os resultados acima poderiam ser considerados espúrios, pois estes apontam a existência de uma estrutura de dependência para a série de retornos logarítmicos de PETR4. O próximo passo consiste em avaliar a existência de dependência temporal para o quadrado do logaritmo dos retornos. Ou seja, como maior interesse do trabalho, analisar e inferir sobre a dependência temporal da variância (ver fórmula 3.17 no item 3.3.2.1). O Gráfico 5 ilustra essa série.

Gráfico 5 - Quadrado do Logaritm o dos Retornos (PETR4) 0.05

Retornos Logarítmicos

0.04

0.03

0.02

0.01

0.00
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/1/2004

Como anteriormente, os períodos de picos mais elevados estão concentrados nas crises Asiática (2° semestre de 1997), Russa (2° semestre de 1998) e de desvalorização do real (1° semestre de 1999). A existência desses períodos 91

concentrados de elevada volatilidade (volatility clustering) pode ser um indicativo da existência de autocorrelação. Examinando mais formalmente essa possibilidade, o Quadro 2 apresenta o correlograma do quadrado do logaritmo dos retornos de PETR4. Para efeito de ilustração, escolheu-se avaliar a estrutura de autocorrelação e de autocorrelação parcial até a defasagem de número 15, pois, em sua forma declinante, até este lag o correlograma do quadrado do logaritmo dos retornos apresenta-se fora do intervalo de confiança já mencionado.

Quadro 2 - Correlograma do Quadrado do Logaritmo dos Retornos de PETR4 Sample: 1 1729 Included observations: 1728 Autocorrelation Partial Correlation Lag AC PAC Q-Stat Prob |*** | |** | |** | |* | |** | |* | |* | |* | |** | |* | |* | |* | |* | |* | |* | | | |*** |* |* | |* | | | |* | | | *| | | | | | | | | | | | | | | | | | | | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 0.373 0.275 0.265 0.186 0.212 0.132 0.122 0.131 0.229 0.148 0.129 0.159 0.068 0.113 0.112 0.037 0.373 0.157 0.143 0.03 0.1 -0.02 0.022 0.035 0.169 -0.015 0.013 0.044 -0.06 0.029 0.036 -0.052 241.87 373 495 555 634 664 690 720 811 850 878 922 930.62 953.07 974.97 977.43 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000

Com fundamento na Estatística Q, deve-se rejeitar a hipótese de independência para quase todos os lags. Como se pode ver, a função de autocorrelação é bastante expressiva na primeira defasagem, indicando forte dependência temporal e sugerindo um modelo MA (1). Igualmente expressiva, a função de autocorrelação parcial também indica ser adequada a utilização de um AR (1) para o quadrado dos retornos logarítmicos. Como era de se esperar, esses resultados estão em conformidade com a utilização de um modelo GARCH (1,1) para a variância de PETR4, que equivale a um modelo ARMA (1,1) para o quadrado dos retornos (Mollica, 1999). É 92

conveniente lembrar que esses resultados também estão em consonância com uma modelagem por ARCH. Contudo, pelo critério de parcimônia explicado em (3.3.2.1), utilizar-se-á o GARCH (1,1), do qual espera-se melhores resultados a um menor esforço computacional.
4.2.2 Companhia Vale do Rio Doce – VALE588

Assim como a ação da Petrobrás – PETR4, a ação da Companhia Vale do Rio Doce – VALE5 é também uma das mais líquidas entre as negociadas na Bovespa e integra o rol das 54 principais ações que compõem o Ibovespa. O Gráfico 6 ilustra a série de preços diários, enquanto que o Gráfico 7 exibe a série de retornos logarítmicos de VALE5.

Gráfico 6 - Preço de Fecham ento (VALE5) 150
Preço da Ação (R$ correntes)

120

90

60

30

0
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/1/2004

88

A análise da ação VALE5 será mais sucinta e, assim, não será exaustiva a ponto de repetir as fórmulas e conceitos estatísticos apresentados no item anterior. Quando necessário, o trabalho fará referência ao apresentado em (4.2.1).

93

Gráfico 7 - Logaritm o dos Retornos (VALE5) 0.40 0.30 Retornos Logarítmicos 0.20 0.10 0.00 -0.10 -0.20 -0.30 2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/1/2004

Ao se analisar o Gráfico 6, infere-se que a série de preços de VALE5 também é não-estacionária. Como de praxe, a transformação da série de preços para retornos logarítmicos, pela fórmula (4.1), contorna bem este problema. Os testes de DickeyFuller e Phillips-Perron para presença de raiz unitária comprovam estacionaridade para série de retornos logarítmicos de VALE5. Tal fato já era previsível, pois a série ilustrada no Gráfico 7 corresponde exatamente à primeira diferença do logaritmo dos preços de VALE5. A partir da observação do Gráfico 7, torna-se evidente que a hipótese de homoscedasticidade da série do logaritmo dos retornos da VALE5 não é adequada. Os clusters de volatilidade se apresentam claramente em alguns momentos de crises pelas quais o país passou. Contudo, ao se comparar o Gráfico 7 com o Gráfico 2 no item anterior, observa-se que a VALE5 apresentou quedas, em termos de retornos logarítmicos, bem menos expressivas que a PETR4. Os três piores retornos verificados na série estiveram concentrados na ocasião da Crise Asiática (em sentido cronológico observou-se quedas de -11,3%, em 24/10/1997, -10,5%, em 07/11/1997, e -11,7, em 12/11/1997). Outros clusters de volatilidade mostram grandes retornos positivos tais como 19,43%, em 15/09/1998, e o expressivo salto89 da ordem de 38% observado alguns dias após a desvalorização do real (maior retorno da série, em 15/01/1999).
Este evento pode estar associado às expectativas otimistas dos agentes de mercado com relação ao potencial exportador da Cia. Vale do Rio Doce frente um contexto de barateamento de suas commodities no mercado externo, o que pode ter se refletido no preço da VALE5.
89

94

Considere agora o Gráfico 8, que mostra o histograma do logaritmo dos retornos de VALE5. Logo abaixo, na Tabela 3, estão demonstradas as estatísticas descritivas dessa série.

Gráfico 8 - Histogram a do Logaritm o dos Retornos (1729 observações de VALE5) 450 400 350

Frequência

300 250 200 150 100 50 0

-0.118

-0.093

-0.069

-0.044

-0.020

0.005

0.029

0.054

0.078

0.103

0.128

0.152

0.177

0.201

0.226

0.250

0.275

0.299

0.324

0.348

Tabela 5

Estatísticas Descritivas de VALE5

Média Erro padrão Mediana Desvio padrão Curtose Assimetria Mínimo Máximo N° Observações

0.001436935 0.00068925 0.000000000 0.028709568 20.83192856 1.562652053 -0.117782496 0.385050066 1729

Ao se testar a média do processo como sendo igual a zero, o valor de prova reportado da estatística t, correspondente ao p-value, leva à rejeição da hipótese nula. O Quadro 3 oferece um valor de 3,74%, significativo, portanto, para os níveis de significância usuais de α = 5% e α = 10%. De acordo com esse teste, assumir média nula para a série de retornos logarítmicos de VALE5 não corresponde a uma boa proxy.

0.373

95

Quadro 3

Hypothesis Testing for LRVALE Sample: 1 1729 Included observations: 1728 Test of Hypothesis: Mean = 0.000000 Sample Mean = 0.001443 Sample Std. Dev. = 0.028788 Method t-statistic Value 2,083.338 Probability 0.0374

O coeficiente de assimetria aponta um valor de 1,5626. A distribuição dos retornos logarítmicos de VALE5 revela, então, ao contrário da PETR4, uma forte assimetria à direita. Com relação ao coeficiente de curtose observado, no valor de 20,832, a distribuição dos retornos logarítmico de VALE5, como era de se esperar, também é leptocúrtica. Juntos, o coeficiente de assimetria e de curtose já indicam que assumir a hipótese de normalidade para a distribuição do logaritmo dos retornos de VALE5 também não é uma boa aproximação. Corroborando esta assertiva, novamente o Teste Jarque-Bera nega a hipótese nula de normalidade. O valor encontrado foi de 31389,56, com probabilidade zero da distribuição do logaritmo dos retornos de VALE5 ser normalmente distribuída. Como antes, em (4.2.1), outra forma de se avaliar essa questão está ilustrada no Gráfico 9.
Gráfico 9 - QQ-Plot (Normal versus VALE5)

4

Quantis de uma Normal

2

0

-2

-4 -5 0 5 10 15

Quantis de Logaritmo dos Retornos de VALE5

96

Uma vez mais, a ferramenta de análise comparativa de distribuições de probabilidade conhecida como QQ-Plot rejeita ser a Normal uma boa proxy para a distribuição empírica do logaritmo dos retornos de VALE5. A disparidade é mais acentuada nos quantis à direita em relação à média. Como estes não são relevantes para o cálculo do VaR, a atenção deve se voltar para os valores extremos situados à esquerda da média. A Tabela 6 ilustra a dimensão desses valores extremos situados na cauda inferior da distribuição para diferentes níveis de significância estatística.

Tabela 6

Percentis de Retornos Logarítmicos de VALE5 (cauda esquerda da distribuição) Nível de Significância Retorno Observado 10% 7,50% 5% 2,50% 1% 0.5% 0,10%

-0,028068 -0,032956 -0,03963 -0,051515 -0,074848 -0,091152 -0,100083

Em termos comparativos, a magnitude das perdas, ou retornos negativos, observadas na distribuição dos retornos logarítmicos de VALE5 é sensivelmente menor daquelas vistas na Tabela 3, relativas à distribuição de PETR4. Finalmente, uma última alternativa de análise com a finalidade de comparar a distribuição do logaritmo dos retornos de VALE5 com uma Normal, consiste em confrontar o número de observações encontradas nos percentis da cauda esquerda de cada uma destas distribuições de probabilidades. A Tabela 7 fornece este comparativo.

Tabela 7

N° de Observações nos Percentis: Retornos Logarítmicos de VALE5 versus Normal Nível de Significância Distribuição Normal Distribuição de PETR4 10% 172,9 175 7,50% 129,6 131 5% 86,45 89 2,50% 43,22 45 1% 17,29 19 0.5% 8,64 10 0,10% 1,729 3

Novamente, a despeito dos testes para normalidade dos retornos logarítmicos de VALE5 terem rejeitado esta hipótese, em se tratando do número de observações, 97

assumir esta conjectura parece não ser tão grave na cauda esquerda desta distribuição. O número de observações encontrado em cada percentil da distribuição empírica é muito próximo daquele verificado em uma Normal. Tendo concluído pela inadequação da hipótese de normalidade, o segundo aspecto a merecer atenção na análise estatística da série de VALE5 refere-se à validade do pressuposto de independência do logaritmo dos retornos, bem como do quadrado dos retornos, i.e., da variância. O Quadro 3 apresenta o correlograma do logaritmo dos retornos de VALE5 para um total de 12 (doze) defasagens. As linhas tracejadas verticais nas duas primeiras colunas do quadro acima correspondem aproximadamente ao limite de dois erros padrão, computado como ± 2 T , o que fornece um valor próximo de 0,048

(para T=1729), i.e., 4,8%. Se a autocorrelação, ou a autocorrelação parcial, encontrarse dentro desse intervalo, diz-se que esta não é significativamente diferente de zero a um nível de significância de aproximadamente 5%. As duas últimas colunas à direita reportadas no correlograma correspondem às Estatísticas Q de Ljung-Box e seus respectivos p-values.

Quadro 3 - Correlograma do Logaritmo dos Retornos de VALE5 Sample: 1 1729 Included observations: 1728 Autocorrelation Partial Correlation Lag AC PAC Q-Stat | | | *| | | | | | | | | | | | | | | | | | | | | | | | *| | | | | | | | | | | | | | | | | | | | | 1 2 3 4 5 6 7 8 9 10 11 12 -0.020 0.008 -0.015 -0.062 -0.037 -0.034 0.010 0.031 0.040 0.055 0.004 -0.046 -0.020 0.008 -0.014 -0.063 -0.039 -0.035 0.007 0.026 0.036 0.051 0.005 -0.043 0.6804 0.7901 11.627 79.106 10.279 12.306 12.489 14.111 16.926 22.111 22.132 25.834

Prob 0.409 0.674 0.762 0.095 0.068 0.055 0.086 0.079 0.050 0.015 0.023 0.011

98

As funções de autocorrelação e de autocorrelação parcial não advogam a favor da utilização de um modelo ARMA (p,q) proveitoso para os retornos. A dependência explicitada na 4ª defasagem inviabiliza a premissa de independência dos retornos. A seguir, avalia-se a existência de dependência temporal para o quadrado do logaritmo dos retornos. Antes, o Gráfico 10 ilustra essa série.

Gráfico 10 - Quadrado do Logaritm o dos Retornos (VALE5) 0.15
Retornos Logarítmicos ao quadrado

0.12

0.09

0.06

0.03

0.00
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/1/2004

Como já destacado, para a série de VALE5, o pico de retorno está concentrado no período de desvalorização do real (1° semestre de 1999). Outros menos expressivos aparecem no período da Crise Asiática (2° semestre de 1997) e Crise Russa (2° semestre de 1998). A existência desses períodos concentrados de elevada volatilidade (volatility clustering) pode ser um indicativo da existência de autocorrelação. O Quadro 4 permite uma análise mais apurada dessa possibilidade. Nele, estão as funções de autocorrelação e de autocorrelação parcial para o quadrado do logaritmo dos retornos de VALE5, i.e., para a variância desta série.

99

Quadro 4 - Correlograma do Quadrado do Logaritmo dos Retornos de VALE5 Sample: 1 1729 Included observations: 1728 Autocorrelation |* |* |* | | |* | | | | | | | | | | | | | | | | | | | | | | | | Partial Correlation |* |* | | | |* | | | | | | | | | | | | | | | | | | | | | | | | Lag 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 AC 0.082 0.076 0.076 0.029 0.036 0.084 0.062 0.03 0.023 0.009 0.057 0.025 0.027 0.013 0.048 PAC 0.082 0.069 0.065 0.014 0.023 0.073 0.045 0.009 0.002 -0.005 0.049 0.008 0.01 -0.003 0.039 Q-Stat 11.655 21.489 31.376 32.864 35.045 47.170 53.821 55.406 56.312 56.458 62.083 63.144 64.440 64.753 68.674 Prob 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000

Baseando-se na Estatística Q, deve-se rejeitar a hipótese de independência para o 1°, 2° 3° e 6° lag da autocorrelação e 1°, 2° e 6° lag da autocorrelação parcial. Ou seja, rejeita-se a hipótese nula dessas autocorrelações serem iguais a zero. Dito de outra maneira, mesmo assumindo inexistência de dependência linear para os retornos, não é possível fazê-lo para o quadrado do logaritmo dos retornos, ainda que para a série de VALE5 a dependência do segundo momento condicional tenha se apresentado muito mais fraca em relação àquela observada na série de PETR4. Isto pode estar associado ao fato de que a série de VALE5 não apresentou uma volatilidade como a verificada na série de PETR4. Mesmo assim, os resultados expressos no Quadro 4 sugerem a adequação de um modelo ARMA (1,1) para o quadrado do logaritmo dos retornos de VALE5. Novamente, esses resultados também estão em consonância com uma modelagem por ARCH, mas, como já salientado, utilizar-se-á o GARCH (1,1), do qual espera-se melhores resultados às custas de um menor esforço computacional.

100

5 Resultados
5.1 Forma de estimação dos modelos90

Neste capítulo, são apresentadas as estimativas do Value-at-Risk para as séries de ações da Petrobrás e da Cia.Vale do Rio Doce. Os resultados foram obtidos a partir das metodologias expostas no capítulo três, quais sejam: a) o modelo de variância não-condicional, i.e., Intervalo de Confiança baseado na normalidade – IC Normal; b) o modelo de variância condicional – GARCH (1,1); c) a técnica de Simulação Histórica – SH. A obtenção do Value-at-Risk obedeceu, então, aos critérios de estimação descritos abaixo. Primeiramente, deve-se destacar a escolha do nível de significância e do horizonte de tempo para os quais o VaR é trabalhado. As estimativas do VaR para as três metodologias foram obtidas para α = 1% e α = 5%. Nas duas metodologias paramétricas assumiu-se distribuição Normal dos retornos. Já no que tange à definição do horizonte de tempo, definiu-se que este será calculado sempre para t+1. Ou seja, as avaliações do risco de mercado referem-se à estimativa da maior perda potencial do próximo dia de negociação para níveis de significância estatística de 1% e 5%. Isso posto, o modelo de variância não-condicional descrito em (3.3.1), no qual o VaR é calculado como sendo o limite inferior de um intervalo de confiança baseado na hipótese de normalidade incondicional dos retornos, foi avaliado tanto a partir de uma amostra fixa de tamanho T=1000 como para o caso de janelas amostrais móveis com um número fixo de observações (T=11 e T=22 dias úteis91). Para o primeiro caso, dado o total de 1729 (um mil setecentas e vinte e nove) observações disponíveis para ambas as séries de PETR4 e VALE5, estimou-se os parâmetros dos modelos com base nas primeiras 1000 (mil) observações e, a partir disto, utilizou-se as 729 (setecentas e vinte e nove) restantes para testar a qualidade das estimativas desse
As estimativas do VaR para modelos de variância incondicional e de Simulação Histórica foram desenvolvidas diretamente no software Excel. Já para o caso do GARCH (1,1), utilizou-se o software Eviews 3.0, que possui o algoritmo deste modelo pronto em suas opões de estimação. Cabe salientar que, para manter um padrão de visualização gráfica das estimativas do VaR, os resultados do GARCH (1,1), obtidos no Eviews 3.0, foram transferidos para o Excel e neste software trabalhados graficamente. 91 A escolha desses valores foi arbitrária. Contudo, pelos resultados obtidos, é possível afirmar que quanto menor a janela melhor a resposta do modelo incondicional à volatilidade do ativo e, por outro lado, quanto menor o tamanho da janela, mais rápido a volatilidade tende a voltar aos patamares anteriores ao choque (ver Hotta et alli, 2003).
90

101

modelo às realizações observadas (o chamado back-test). Já que no que tange à utilização de janelas amostrais móveis, espera-se, com isso, poder atribuir maior grau de importância às observações mais recentes92, i.e., incorporar com maior ponderação estas novas informações ao conjunto de informação disponível para estimação do risco de mercado, onde o back-test consiste, então, em realizar o confronto destas estimativas diárias com os retornos realizados diariamente no mercado. Em seguida, o modelo GARCH (1,1) apresentado em (3.3.2), pelo qual o VaR é obtido utilizando-se a volatilidade condicional prevista para t+1, tem seus parâmetros estimados de duas maneira distintas: a) a partir da totalidade da amostra de 1729 observações, obtendo-se, assim, as estimativas dos parâmetros ARCH e GARCH, os quais são mantidos fixos para toda a amostra, i.e., dito de outra forma, o algoritmo do GARCH (1,1) utiliza toda as observações para estimar os parâmetros e testa o modelo com estas estimativas ao conjunto completo das observações; b) com base em uma amostra que cresce cada ano como uma progressão aritmética de razão 250, i.e., a partir de uma amostra inicial de aproximadamente um ano de dias úteis (T=250 observações), estima-se os parâmetros do modelo, os quais, mantidos constantes durante este intervalo de tempo, passam daí em diante ser reestimados a cada novo ano cronológico93. Por último, o VaR é calculado também através da técnica não-paramétrica de Simulação Histórica apresentada em (3.4.1). Resumidamente, essa metodologia consiste simplesmente em utilizar um dado quantil (por exemplo, como já ressaltado, as estimativas serão trabalhadas para níveis de significância de 1% e 5%) da distribuição empírica do logaritmo dos retornos de PETR4 e VALE5. Seguindo a orientação sugerida pelo Comitê Basiléia, utilizar-se-á janelas amostrais móveis de tamanho T=252 dias de negociação e também, assim como no trabalho de Moreira & Clemente (2003), para janelas de tamanho T=126. Desta maneira, para cada T=252 ou T=126 dias úteis, se o VaR é baseado em um nível de confiança estatística de 95%, é de se esperar que perdas financeiras acima do VaR ocorrerão no máximo em 5% dos dias, i.e., 0,05 x 252, em 12,6 dias, ou 0,05 x 126, em 6,3 dias,

Sobre a utilização de janelas móveis no processo de estimação do VaR, como bem apontado em Hotta et alli (2003), apesar de se manter o peso igual para todas observações utilizadas na amostra, consegue-se maior flexibilidade na geração da estimativa do VaR, pois, deste modo, é possível atribuir maior importância às observações mais recentes através da escolha de uma janela temporal mais reduzida. 93 Considerando como ano cronológico o intervalo de 250 dias úteis que se iniciam no mês de janeiro e terminam em dezembro. Repare que não corresponde ao conceito de janela móvel utilizado para o modelo de variância incondicional.

92

102

respectivamente. O VaR das duas ações no dia t+1 será, então, obtido a partir do quantil correspondente a α % aplicado às estatísticas de ordem da distribuição dos 252 e 126 retornos verificados em mercado94.

5.2 Forma de aferição dos resultados

Uma primeira forma de se testar os resultados consiste em se estimar o VaR ao nível de significância estabelecido e contar quantas vezes este é superado ao longo da amostra utilizada para o back-test. Desta maneira, quão mais perto for a freqüência de superação do nível de significância para o qual se está estimando o VaR, melhor é o modelo. Ocorre que, geralmente, a estimativa do VaR costuma ser superada por aqueles valores situados mais próximos ao extremo da distribuição e que, deste modo, apresentam menores probabilidades de ocorrência. Como são essas as observações que costumam causar maiores “estragos financeiros”, maior atenção deve ser concedida justamente para estes casos (Souza, 1999). A aferição dos resultados dos modelos de VaR apresentados nos dois itens seguintes deste trabalho é realizada com base no teste proposto por Kupiec (1995). Em seu trabalho intitulado Techniques for Verifying the Accuracy of Risk Measurement Models, esse autor desenvolveu um procedimento estatístico para avaliar a acurácia das estimativas de valores extremos situados nas caudas da distribuição de retornos financeiros. A técnica consiste em contrapor as estimativas de perdas potenciais com os retornos efetivamente observados na amostra, utilizando-se, para tanto, de um processo de “aferição retroativa” para quantificar o percentual de falhas de ocorrência95 ao longo da amostra (Araújo et alli, 2003). Nesse passo, o procedimento de back-test empreendido neste trabalho está de acordo com as diretrizes e recomendações contidas em documento elaborado pelo Comitê da Basiléia especificamente com este propósito96. Ou seja, conta-se o número de dias em que os resultados observados na amostra foram “piores” do que podia supor a estimativa do VaR e divide-se este número pelo tamanho da amostra em
A rigor, esta técnica não corresponde a uma simulação no sentido estrito da palavra. Isto porque, a Simulação Histórica consiste essencialmente em reconstruir o histórico de um ativo ou de um portfólio hipotético por meio de sua posição atual. A hipótese fundamental é que o passado das observações é uma boa proxy da distribuição futura, i.e., para os que advertem sobre os perigos de sua utilização, exige-se que o futuro não seja muito diferente do passado (Souza, 1999). 95 Entende-se por falha de ocorrência uma perda realizada em mercado que exceda a estimativa do Valueat-Risk para o dia em questão.
94

103

análise, obtendo-se a taxa ou percentual de falhas de ocorrência. Em seguida, esse percentual é comparado ao nível de significância pré-especificado para o cálculo do VaR; se estes valores forem muito próximos, diz-se que o modelo de predição do VaR apresenta acurácia significativa; caso estes valores difiram substancialmente entre si, o modelo deve ser rejeitado (Goorbergh & Vlaar, 1999). O teste de razão de verossimilhança (likelihood ratio – doravante LR), desenvolvido por Kupiec (apud Goorbergh & Vlaar, 1999) avalia estatisticamente a hipótese nula de que a proporção verdadeira de falhas p do modelo é igual ao nível de significância α % preestabelecido para o cálculo do VaR. Seja N o número de vezes em que o retorno observado excedeu o VaR em uma amostra de tamanho T. Se cada uma das realizações diárias da série de retornos apresenta probabilidade de α % de superar o VaR, então, a variável aleatória “número de violações do VaR” apresenta distribuição binomial97 com média T e variância p: (5.1)

N ~ B (T , p)

Idealmente, o percentual de falhas de ocorrência deve ser igual à probabilidade associada à cauda esquerda da distribuição, i.e., p = α %. As hipóteses nula e alternativa são construídas da seguinte forma:

H0 =

N =p T

(5.2)

N HA = ≠ p T

e a estatística apropriada para se testar a LR é dada por:
⎧ ⎡⎛ N ⎞ N ⎛ N ⎞T − N ⎤ ⎪ LR = 2⎨log ⎢⎜ ⎟ ⎜1 − ⎟ ⎥ − log p N (1 − p )T − N ⎪ ⎢⎝ T ⎠ ⎝ T ⎠ ⎥ ⎦ ⎩ ⎣ ⎫ ⎪ ⎭

[

]⎪ ⎬

(5.3)

Supervisory Framework for the Use of “Backtesting” in Conjunction with the Internal Models Approach to Market Risk Capital Requirements (1996). 97 A distribuição binomial em questão refere-se a n ensaios de Bernoulli, em que a variável aleatória “número de violações do VaR” assume valor 1 (um) para o caso de superação do VaR e 0 (zero) em caso contrário.

96

104

Sob a hipótese nula que p é a verdadeira probabilidade do VaR ser excedido, a estatística do teste LR é assintoticamente distribuída como uma qui-quadrado ( χ 2 ) com 1 (um) grau de liberdade. Dado um determinado nível de confiança estatística, por exemplo, (1-α) %, é possível, então, se construir a região de não-rejeição que indica se o modelo deve ou não ser descartado ao nível de significância do teste. Por convenção, fixou-se α = 5% para o Teste de Kupiec. Para os níveis de significância de 1% e 5% unicaudais à esquerda, referentes ao cálculo do VaR, e para diferentes tamanhos de amostra escolhidos para o back-test, as Tabelas 8 e 9 destacam as regiões de aceitação da hipótese nula, respectivamente, em termos de proporção e número de falhas verificados empiricamente.

Tabela 8

Intervalos de Não-Rejeição da Hipótese Nula para Proporção de Falhas com Base no Teste de Kupiec a 5% de Significância
Nível de Significância para o Cálculo do VaR Tamanho da Amostra

5% Proporção de Falhas Aceitável 1.94% ≤ P ≤ 9.71% 2.42% ≤ P ≤ 8.21% 2.75% ≤ P ≤ 7.80% 2.64% ≤ P ≤ 7.93% 2.62% ≤ P ≤ 7.86% 2.80% ≤ P ≤ 7.60% 3.57% ≤ P ≤ 6.58% 3.99% ≤ P ≤ 6.09% 3.99% ≤ P ≤ 6.05% 4.04% ≤ P ≤ 6.06% 4.02% ≤ P ≤ 6.05% 4.05% ≤ P ≤ 6.02%

1% Proporção de Falhas Aceitável 0.00% ≤ P ≤ 2.91% 0.00% ≤ P ≤ 2.42% 0.00% ≤ P ≤ 2.29% 0.00% ≤ P ≤ 2.20% 0.00% ≤ P ≤ 2.18% 0.00% ≤ P ≤ 2.40% 0.41% ≤ P ≤ 1.78% 0.54% ≤ P ≤ 1.49% 0.56% ≤ P ≤ 1.50% 0.59% ≤ P ≤ 1.46% 0.58% ≤ P ≤ 1.46% 0.58% ≤ P ≤ 1.50%

T=103 T=207 T=218 T=227 T=229 T=250 T=729 T=1477 T=1603 T=1707 T=1718 T=1729

Obs: Aceitar a hipótese nula corresponde a admitir que a proporção de falhas observada empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR. Se essa proporção se situar no intervalo especificado, a hipótese nula não deve ser rejeitada ao nível de significância de 5% para o teste de Kupiec.

105

Tabela 9

Intervalos de Não-Rejeição da Hipótese Nula para Número de Falhas com Base no Teste de Kupiec a 5% de Significância
Nível de Significância para o Cálculo do VaR
Tamanho da Amostra

5% Número de Falhas Aceitável 2 ≤ N ≤ 10 5 ≤ N ≤ 17 6 ≤ N ≤ 17 6 ≤ N ≤ 18 6 ≤ N ≤ 18 7 ≤ N ≤ 19 26 ≤ N ≤ 48 59 ≤ N ≤ 90 64 ≤ N ≤ 97 69 ≤ N ≤ 103 69 ≤ N ≤ 104 70 ≤ N ≤ 104

1% Número de Falhas Aceitável 0≤N≤3 0≤N≤5 0≤N≤5 0≤N≤5 0≤N≤5 0≤N≤6 3 ≤ N ≤ 13 8 ≤ N ≤ 22 9 ≤ N ≤ 24 10 ≤ N ≤ 25 10 ≤ N ≤ 25 10 ≤ N ≤ 26

T=103 T=207 T=218 T=227 T=229 T=250 T=729 T=1477 T=1603 T=1707 T=1718 T=1729

Obs: Aceitar a hipótese nula corresponde a admitir que a proporção de falhas observada empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR. Se essa proporção se situar no intervalo especificado, a hipótese nula não deve ser rejeitada ao nível de significância de 5% para o teste de Kupiec.

Os limites descritos nas Tabelas 8 e 9 indicam, respectivamente, os intervalos para a proporção e o número de falhas de ocorrência para que a hipótese nula de que a proporção empírica é igual ao nível de significância escolhido para o cálculo do VaR seja aceita ao nível de significância de 5% do Teste de Kupiec. Os valores compreendidos nesses intervalos foram aceitos a partir da comparação do resultado obtido através da fórmula (5.3) com o valor crítico da distribuição qui-quadrado para
2 1 (um) grau de liberdade e nível de significância do teste de 5%, i.e., χ 0 = 3,841 ; a

observação de valores superiores (inferiores) a este último leva à rejeição (aceitação) da hipótese nula. Uma questão importante que surge com o teste de Kupiec refere-se à adequação desta técnica estatística às normas de supervisão dos modelos internos (ver item 2.3) propostas no âmbito do Comitê Basiléia. É importante notar que o procedimento de back-test proposto por Kupiec pode ser aplicado às duas caudas da distribuição dos retornos, i.e., a freqüência de retornos efetivos além do intervalo de confiança superior (retornos positivos) ou do inferior (retornos negativos) pode levar à rejeição do modelo. Isto porque, sob o ponto de vista dos bancos, é importante não apenas saber se seus modelos subestimam o risco de mercado, mas também reconhecer que se estes são muito conservadores, pois, deste modo, algumas oportunidades de ganho estariam sendo desperdiçadas em virtude da utilização de um sistema de 106

administração de posições demasiadamente avesso ao risco que também esteja impondo um ônus ao banco em termos de requerimentos de capital mais elevados. Particularmente, modelos que são muito conservadores tendem a ser descartados pelos bancos, enquanto que o Acordo da Basiléia penaliza apenas modelos que subestimam o VaR. Assim, para fins de supervisão bancária, apenas aqueles sistema que calculam o VaR erroneamente para baixo é que são relevantes (Goorbergh & Vlaar, 1999). Vale dizer que, como na lógica do aparato de supervisão, neste trabalho empírico foi empreendido apenas o teste unicaudal à esquerda. A título de ilustração, então, para uma amostra de 250 dias de negociação e probabilidade associada à cauda esquerda de 1%, como prescrito pelo Comitê Basiléia98, o valor crítico, em número absoluto de falhas, do teste unicaudal é igual a 6 (ver Tabela 9, com os intervalos obtidos de acordo com Teste de Kupiec) ao nível de confiança de 95%. Isto significa dizer que a hipótese nula do Teste de Kupiec, pela qual se está avaliando a qualidade dos modelos de VaR, deve ser rejeitada se estes modelos gerarem predições que são violadas, em números absolutos, mais de seis vezes em um período de back-test de 250 dias úteis.

5.3 Resultados empíricos

É bastante discutível o exercício de retirar conclusões generalistas a partir de um estudo empírico que produz resultados particulares. Contudo, como não poderia ser diferente em um trabalho de dissertação de mestrado, algumas observações devem ser tecidas com base na experiência prática de aplicação dos modelos de VaR estudados às séries de retornos financeiros da Petrobrás e da Cia. Vale do Rio Doce. Nesse sentido, descreve-se a seguir o desempenho de cada um dos modelos (e suas variantes) aplicados a essas duas séries de ações. A atenção está voltada para a possibilidade e a quantidade de ocorrências de perdas financeiras superiores às estimativas geradas através dos diferentes modelos de VaR. O critério de análise (aceitação ou rejeição da hipótese nula de que a proporção empírica de falhas corresponde ao nível de significância escolhido para o cálculo do VaR) leva em consideração os intervalos percentuais e absolutos delineados através do teste de Kupiec e constantes nas Tabelas 8 e 9.

98

O Comitê Basiléia sugere o número de 4 (quatro) falhas para o período de 250 dias ao nível de confiança estatística de 99%.

107

Os gráficos com as séries de retornos financeiros e com as estimativas do VaR obtidas através da aplicação dos modelos estudados às séries da PETR4 e VALE5 encontram-se, respectivamente, nos itens (5.3.1) e (5.3.2). O item (5.3.3) apresenta o resumo, na forma de tabelas, das avaliações dos modelos de VaR aplicados à essas duas séries financeiras. Os principais resultados alcançados podem ser sintetizados da seguinte forma:

a) Modelo Incondicional

O método de variância incondicional, aplicado à amostra fixa de tamanho T=1000, apresentou-se demasiadamente estático e conservador no que tange às estimativas do VaR. Isto porque, como pode ser observado nos Gráficos 11, 12, 25 e 26, esse modelo não reconhece alterações nos padrões de volatilidade, e, em geral, dependendo da amostra utilizada, tende a superestimar o risco de mercado99. As predições geradas com esse modelo foram violadas no máximo quatro vezes para PETR4 e duas vezes para VALE5 em um período de 250 dias (Tabelas 10 e 11). Estes números bastante reduzidos levaram à rejeição da hipótese nula em todas subamostras para o nível de significância de 5%, mas, por outro lado, aceitação para todas sub-amostras ao nível de significância de 1%. A flexibilização da amostra através da utilização de janelas móveis (T=11 e T=22) imprimiu um grau de adaptação maior desse modelo à volatilidade observada em mercado. Para ambos tamanhos de janela amostral móvel, o desempenho do modelo de variância incondicional se deu a contento, apresentando falhas de ocorrência bastante próximas ou dentro dos intervalos esperados. Apesar da sua flexibilidade relativa, a capacidade de ajuste desse modelo às mudanças de volatilidade ainda pode ser considerada lenta, especialmente para o caso da janela de tamanho T=22. Tal fato pode ser constatado ao se visualizar alguns trechos “mais estendidos” nas linhas do VaR (comparar Gráficos 13 e 14 com Gráficos 15 e 16 e Gráficos 27 e 28 com Gráficos 29 e 30). Dos métodos paramétricos, o modelo de variância incondicional com janela móvel de tamanho T=22 foi o que apresentou o maior número absoluto de falhas (11 no total) para uma sub-amostra de 250 dias (observar Tabelas de 12 a 15) e o único

99

Não se deve esquecer que tal fato implica maiores requerimentos de capital em uma razão direta.

108

que teve a hipótese nula aceita para toda a amostra no cálculo do VaR ao nível de significância de 1% (ver Tabela 15).

b) Modelo de Variância Condicional – GARCH (1,1)

Sem margem para dúvidas, o modelo de variância condicional GARCH (1,1) é o que apresenta os melhores resultados em termos de adaptação adequada e relativamente rápida aos níveis de volatilidade vigentes. Sua aderência aos dados é nítida e comprova a grande agilidade de ajuste desse modelo às alterações da volatilidade observada em mercado, o que pode ser constatado pelas quebras rápidas (perfil “recortado”) nas linhas do VaR (Gráficos 17 a 20 e 31 a 34). Este aspecto é de grande valia para a modelagem de séries financeiras e se traduz em um número baixo de falhas de ocorrência (a hipótese nula do Teste de Kupiec foi aceita para todas subamostras deste modelo de variância condicional calculado para o nível de significância estatística de 1%). O GARCH (1,1) estimado com base em uma amostra fixa de tamanho T=1739 apresentou performance ligeiramente superior ao mesmo modelo estimado a partir de uma amostra crescente (ver resultados constantes nas Tabelas 16 a 19). Isto se deve ao fato de que a “leitura” de uma amostra maior pelo algoritmo do GARCH (1,1) capta de maneira mais acurada as características da série em análise e, deste modo, estima de maneira mais precisa os parâmetros do modelo.

c) Modelo de Simulação Histórica

O modelo não-paramétrico de Simulação Histórica foi o que apresentou mais contrastes em seus resultados. Se pela ótica do Teste de Kupiec, essa abordagem foi a que apresentou o maior número de aceitação da hipótese nula, do ponto de vista restrito da quantidade observada de falhas de ocorrência, o método de Simulação Histórica foi o que apresentou de longe o maior número de violações (ver Tabelas 20 a 23). Isto é verdade tanto para a janela móvel de tamanho T=126 quanto para a janela móvel de extensão T=252, seja para o nível de significância de 1% ou 5%. Esse resultado pode ser compreendido pela baixa capacidade de adaptação do método de Simulação Histórica às flutuações da volatilidade ao longo do tempo, o que pode ser constatado a partir da observação de longos “platôs” delineados pela 109

trajetória das linhas do VaR (ver Gráficos 21 a 24 e Gráficos 35 a 38). Tal característica decorre diretamente da concepção teórica inscrita nessa metodologia, que utiliza um dado percentil fixo da amostra de retornos para se obter o VaR, o qual se move, então, em degraus, podendo se manter estático por períodos de tempo relativamente longos. Ademais, o modelo de Simulação Histórica, com janela móvel de tamanho T=252 e nível de significância de 5%, foi o que apresentou o maior número absoluto de violações (13 no total para a ação da PETR4) dentro de uma sub-amostra de 250 dias. Apesar desses resultados não tão satisfatórios, é importante ressaltar que o atrativo da metodologia de Simulação Histórica está em sua simplicidade e facilidade de implementação, o que explica, apesar de suas limitações, sua grande utilização na prática do dia a dia de diversas instituições financeiras.

110

5.3.1 Gráficos das estimativas de VaR para a ação da PETR4 a) Modelo de Variância Incondicional

Modelo Incondicional – Amostra Fixa (T=1000) e Nível de Significância de 5%

Gráfico 11 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
22/1/2001 22/3/2001 22/5/2001 22/7/2001 22/9/2001 22/11/2001 22/1/2002 22/3/2002 22/5/2002 22/7/2002 22/9/2002 22/11/2002 22/1/2003 22/3/2003 22/5/2003 22/7/2003 22/9/2003 22/9/2003 22/11/2003 22/11/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Amostra fixa T=1000)

Modelo Incondicional – Amostra Fixa (T=1000) e Nível de Significância de 1%

Gráfico12 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
22/1/2001 22/3/2001 22/5/2001 22/7/2001 22/9/2001 22/11/2001 22/1/2002 22/3/2002 22/5/2002 22/7/2002 22/9/2002 22/11/2002 22/1/2003 22/3/2003 22/5/2003 22/7/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Amostra fixa T=1000)

111

Modelo Incondicional - Janela Móvel (T=11) e Nível de Significância de 5%

Gráfico 13 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
17/1/1997 17/5/1997 17/9/1997 17/1/1998 17/5/1998 17/9/1998 17/1/1999 17/5/1999 17/9/1999 17/1/2000 17/5/2000 17/9/2000 17/1/2001 17/5/2001 17/9/2001 17/1/2002 17/5/2002 17/9/2002 17/1/2003 17/5/2003 17/5/2003 17/9/2003 17/9/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Janela móvel T=11)

Modelo Incondicional - Janela Móvel (T=11) e Nível de Significância de 1%

Gráfico 14 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.25 0.15 0.05 -0.05 -0.15 -0.25 -0.35
17/1/1997 17/5/1997 17/9/1997 17/1/1998 17/5/1998 17/9/1998 17/1/1999 17/5/1999 17/9/1999 17/1/2000 17/5/2000 17/9/2000 17/1/2001 17/5/2001 17/9/2001 17/1/2002 17/5/2002 17/9/2002 17/1/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Janela móvel T=11)

112

Modelo Incondicional - Janela Móvel (T=22) e Nível de Significância de 5%

Gráfico 15 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
3/2/1997 3/6/1997 3/10/1997 3/2/1998 3/6/1998 3/10/1998 3/2/1999 3/6/1999 3/10/1999 3/2/2000 3/6/2000 3/10/2000 3/2/2001 3/6/2001 3/10/2001 3/2/2002 3/6/2002 3/10/2002 3/2/2003 3/6/2003 3/6/2003 3/10/2003 3/10/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Janela móvel T=22)

Modelo Incondicional - Janela Móvel (T=22) e Nível de Significância de 1%

Gráfico 16 - VaR Incondicional X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
3/2/1997 3/6/1997 3/10/1997 3/2/1998 3/6/1998 3/10/1998 3/2/1999 3/6/1999 3/10/1999 3/2/2000 3/6/2000 3/10/2000 3/2/2001 3/6/2001 3/10/2001 3/2/2002 3/6/2002 3/10/2002 3/2/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Janela móvel T=22)

113

b) Modelo de Variância Condicional - GARCH (1,1)

GARCH (1,1) - Amostra Fixa (T=1729) e Nível de Significância de 5%

Gráfico 17 - GARCH (1,1) para T=1729 X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/9/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 5%

GARCH (1,1) - Amostra Fixa (T=1729) e Nível de Significância de 1%

Gráfico 18 - GARCH (1,1) para T=1729 X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 1%

114

GARCH (1,1) - Amostra Crescente e Nível de Significância de 5%

Gráfico 19 - GARCH (1,1) Am ostra Crescente X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/9/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 5% (Amostra Crescente)

GARCH (1,1) - Amostra Crescente e Nível de Significância de 1%

Gráfico 20 - GARCH (1,1) Am ostra Crescente X Retornos Logarítm icos (PETR4) 0.28 0.18 0.08 -0.02 -0.12 -0.22 -0.32
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 1% (Amostra Crescente)

115

c) Modelo de Simulação Histórica

Simulação Histórica – Janela Móvel (T=126) e Nível de Significância de 5%

Gráfico 21 - Sim ulação Histórica X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
11/7/1997 11/11/1997 11/3/1998 11/7/1998 11/11/1998 11/3/1999 11/7/1999 11/11/1999 11/3/2000 11/7/2000 11/11/2000 11/3/2001 11/7/2001 11/11/2001 11/3/2002 11/7/2002 11/11/2002 11/3/2003 11/7/2003 11/7/2003 11/11/2003 11/11/2003

Logaritmo dos Retornos

Simulação Histórica a 5% (Janela móvel T=126)

Simulação Histórica – Janela Móvel (T=126) e Nível de Significância de 1%

Gráfico 22 - Sim ulação Histórica X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
11/7/1997 11/11/1997 11/3/1998 11/7/1998 11/11/1998 11/3/1999 11/7/1999 11/11/1999 11/3/2000 11/7/2000 11/11/2000 11/3/2001 11/7/2001 11/11/2001 11/3/2002 11/7/2002 11/11/2002 11/3/2003

Logaritmo dos Retornos

Simulação Histórica a 1% (Janela móvel T=126)

116

Simulação Histórica – Janela Móvel (T=252) e Nível de Significância de 5%

Gráfico 23 - Sim ulação Histórica X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
9/1/1998 9/5/1998 9/9/1998 9/1/1999 9/5/1999 9/9/1999 9/1/2000 9/5/2000 9/9/2000 9/1/2001 9/5/2001 9/9/2001 9/1/2002 9/5/2002 9/9/2002 9/1/2003 9/5/2003 9/5/2003 9/9/2003 9/9/2003

Logaritmo dos Retornos

Simulação Histórica a 5% (Janela móvel T=252)

Simulação Histórica – Janela Móvel (T=252) e Nível de Significância de 1%

Gráfico 24 - Sim ulação Histórica X Retornos Logarítm icos (PETR4) 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
9/1/1998 9/5/1998 9/9/1998 9/1/1999 9/5/1999 9/9/1999 9/1/2000 9/5/2000 9/9/2000 9/1/2001 9/5/2001 9/9/2001 9/1/2002 9/5/2002 9/9/2002 9/1/2003

Logaritmo dos Retornos

Simulação Histórica a 1% (Janela móvel T=252)

117

5.3.2 Gráficos das estimativas de VaR para a ação da VALE5 a) Modelo de Variância Incondicional

Modelo Incondicional – Amostra Fixa (T=1000) e Nível de Significância de 5%

Gráfico 25 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
22/1/2001 22/3/2001 22/5/2001 22/7/2001 22/9/2001 22/11/2001 22/1/2002 22/3/2002 22/5/2002 22/7/2002 22/9/2002 22/11/2002 22/1/2003 22/3/2003 22/5/2003 22/7/2003 22/9/2003
22/9/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Amostra fixa T=1000)

Modelo Incondicional – Amostra Fixa (T=1000) e Nível de Significância de 1%

Gráfico 26 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 22/1/2001 22/3/2001 22/5/2001 22/7/2001 22/9/2001 22/11/2001 22/1/2002 22/3/2002 22/5/2002 22/7/2002 22/9/2002 22/11/2002 22/1/2003 22/3/2003 22/5/2003 22/7/2003 22/11/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Amostra fixa T=1000)

22/11/2003

118

Modelo Incondicional - Janela Móvel (T=11) e Nível de Significância de 5%

Gráfico 27 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 17/1/1997 17/5/1997 17/9/1997 17/1/1998 17/5/1998 17/9/1998 17/1/1999 17/5/1999 17/9/1999 17/1/2000 17/5/2000 17/9/2000 17/1/2001 17/5/2001 17/9/2001 17/1/2002 17/5/2002 17/9/2002 17/1/2003 17/5/2003 17/9/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Janela móvel T=11)

Modelo Incondicional - Janela Móvel (T=11) e Nível de Significância de 1%

Gráfico 28 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.35 0.25 0.15 0.05 -0.05 -0.15 -0.25 -0.35
17/1/1997 17/5/1997 17/9/1997 17/1/1998 17/5/1998 17/9/1998 17/1/1999 17/5/1999 17/9/1999 17/1/2000 17/5/2000 17/9/2000 17/1/2001 17/5/2001 17/9/2001 17/1/2002 17/5/2002 17/9/2002 17/1/2003 17/5/2003 17/9/2003

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Janela móvel T=11)

119

Modelo Incondicional - Janela Móvel (T=22) e Nível de Significância de 5%

Gráfico 29 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
3/10/97 3/10/98 3/10/99 3/10/00 3/10/01 3/10/02 3/10/03
3/10/03

3/2/97

3/6/97

3/2/98

3/6/98

3/2/99

3/6/99

3/2/00

3/6/00

3/2/01

3/6/01

3/2/02

3/6/02

3/2/03
3/2/03

Logaritmo dos Retornos

Modelo Incondicional VaR 5% (Janela móvel T=22)

Modelo Incondicional - Janela Móvel (T=22) e Nível de Significância de 1%

Gráfico 30 - VaR Incondicional X Logaritm o dos Retornos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 3/10/97 3/10/98 3/10/99 3/10/00 3/10/01 3/10/02 3/2/97 3/6/97 3/2/98 3/6/98 3/2/99 3/6/99 3/2/00 3/6/00 3/2/01 3/6/01 3/2/02 3/6/02 3/6/03

Logaritmo dos Retornos

Modelo Incondicional VaR 1% (Janela móvel T=22)

3/6/03

120

b) Modelo de Variância Condicional – GARCH (1,1)

GARCH (1,1) - Amostra Fixa (T=1729) e Nível de Significância de 5%

Gráfico 31 - GARCH (1,1) para T=1729 X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/9/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 5%

GARCH (1,1) - Amostra Fixa (T=1729) e Nível de Significância de 1%

Gráfico 32 - GARCH (1,1) para T=1729 X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 -0.40
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 1%

121

GARCH (1,1) - Amostra Crescente e Nível de Significância de 5%

Gráfico 33 - GARCH (1,1) Am ostra Crescente X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 -0.40
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/9/2003 2/9/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 5% (Amostra Crescente)

GARCH (1,1) - Amostra Crescente e Nível de Significância de 1%

Gráfico 34 - GARCH (1,1) Am ostra Crescente X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30 -0.40 -0.50
2/1/1997 2/5/1997 2/9/1997 2/1/1998 2/5/1998 2/9/1998 2/1/1999 2/5/1999 2/9/1999 2/1/2000 2/5/2000 2/9/2000 2/1/2001 2/5/2001 2/9/2001 2/1/2002 2/5/2002 2/9/2002 2/1/2003 2/5/2003 2/1/2004

Logaritmo dos Retornos

GARCH (1,1) a 1% (Amostra Crescente)

122

c) Modelo de Simulação Histórica

Simulação Histórica – Janela Móvel (T=126) e Nível de Significância de 5%

Gráfico 35 - Sim ulação Histórica X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
11/11/97 11/11/98 11/11/99 11/11/00 11/11/01 11/11/02 11/11/03 11/11/03 11/7/97 11/3/98 11/7/98 11/3/99 11/7/99 11/3/00 11/7/00 11/3/01 11/7/01 11/3/02 11/7/02 11/3/03 11/3/03 11/7/03 11/7/03

Logaritmo dos Retornos

Simulação Histórica a 5% (Janela móvel T=126)

Simulação Histórica – Janela Móvel (T=126) e Nível de Significância de 1%

Gráfico 36 - Sim ulação Histórica X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
11/11/97 11/11/98 11/11/99 11/11/00 11/11/01 11/11/02 11/7/97 11/3/98 11/7/98 11/3/99 11/7/99 11/3/00 11/7/00 11/3/01 11/7/01 11/3/02 11/7/02

Logaritmo dos Retornos

Simulação Histórica a 1% (Janela móvel T=126)

123

Simulação Histórica – Janela Móvel (T=252) e Nível de Significância de 5%

Gráfico 37 - Sim ulação Histórica X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
9/1/1998 9/5/1998 9/9/1998 9/1/1999 9/5/1999 9/9/1999 9/1/2000 9/5/2000 9/9/2000 9/1/2001 9/5/2001 9/9/2001 9/1/2002 9/5/2002 9/9/2002 9/1/2003 9/5/2003 9/4/03 9/7/03 9/9/2003 9/10/03

Logaritmo dos Retornos

Simulação Histórica a 5% (Janela móvel T=252)

Simulação Histórica – Janela Móvel (T=252) e Nível de Significância de 1%

Gráfico 38 - Sim ulação Histórica X Retornos Logarítm icos (VALE5) 0.40 0.30 0.20 0.10 0.00 -0.10 -0.20 -0.30
9/10/98 9/10/99 9/10/00 9/10/01 9/10/02 9/1/98 9/4/98 9/7/98 9/1/99 9/4/99 9/7/99 9/1/00 9/4/00 9/7/00 9/1/01 9/4/01 9/7/01 9/1/02 9/4/02 9/7/02 9/1/03

Logaritmo dos Retornos

Simulação Histórica a 1% (Janela móvel T=252)

124

5.3.3 Tabelas-resumo das estimativas para as ações da PETR4 e VALE5

Tabela 10

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Amostra Fixa T=1000 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) de Falhas Falhas Falhas de Falhas Aceita? Aceita? 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs) 22/01/2001 a 01/01/2004 Amostra Completa (729 obs.) 4 4 0 1.60% 1.60% 0.00% Não Não Não 2 0 0 0.80% 0.00% 0.00% Não Não Não

8

1.10%

Não

2

0.27%

Não

Obs: A proporção de falhas observadas é calculada para duas sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 11

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Amostra Fixa T=1000 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs.) 22/01/2001 a 01/01/2004 Amostra Completa (729 obs.) 0 1 0 0.00% 0.40% 0.00% Sim Sim Sim 1 0 0 0.40% 0.00% 0.00% Sim Sim Sim

1

0.14%

Não

1

0.14%

Não

Obs: Obs: A proporção de falhas observadas é calculada para duas sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

125

Tabela 12

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Janela Móvel T=11 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce Número de Proporção Número de Proporção H0 H0 Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 17/01/1997 a 19/01/1998 20/01/1998 a 26/01/1999 27/01/1999 a 31/01/2000 01/02/2000 a 01/02/2001 02/02/2001 a 07/02/2002 08/02/2002 a 07/02/2003 10/02/2003 a 02/01/2004 (218 obs) 17/01/1997 a 02/01/2004 Amostra Completa ( 1718 obs.) 5 9 6 5 3 7 5 2.00% 3.60% 2.40% 2.00% 1.20% 2.80% 2.29% Não Sim Não Não Não Sim Não 4 2 4 5 5 1 2 1.60% 0.80% 1.60% 2.00% 2.00% 0.40% 0.92% Não Não Não Não Não Não Não

40

2.32%

Não

23

1.33%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 218 dias e também para a amostra completa de 1718 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 13

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Janela Móvel T=11 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 17/01/1997 a 19/01/1998 20/01/1998 a 26/01/1999 27/01/1999 a 31/01/2000 01/02/2000 a 01/02/2001 02/02/2001 a 07/02/2002 08/02/2002 a 07/02/2003 10/02/2003 a 02/01/2004 (218 obs) 17/01/1997 a 02/01/2004 Amostra Completa ( 1718 obs.) 3 0 0 1 1 0 1 1.20% 0.00% 0.00% 0.40% 0.40% 0.00% 0.46% Sim Sim Sim Sim Sim Sim Sim 1 1 1 1 1 0 0 0.40% 0.40% 0.40% 0.40% 0.40% 0.00% 0.00% Sim Sim Sim Sim Sim Sim Sim

6

0.35%

Não

5

0.29%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 218 dias e também para a amostra completa de 1718 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

126

Tabela 14

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Janela Móvel T=22 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce Número de Proporção H0 H0 Número de Proporção Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 03/02/1997 a 05/02/1998 06/02/1998 a 12/02/1999 17/02/1999 a 18/02/2000 21/02/2000 a 21/02/2001 22/02/2001 a 01/03/2002 04/03/2002 a 27/02/2003 28/02/2003 a 02/01/2004 (207 obs.) 03/02/1997 a 02/01/2004 Amostra Completa (1707 obs.) 7 11 6 5 9 7 7 2.80% 4.40% 2.40% 2.00% 3.60% 2.80% 3.38% Sim Sim Não Sim Sim Sim Sim 10 10 5 6 8 7 1 4.00% 4.00% 2.00% 2.40% 3.20% 2.80% 0.48% Sim Sim Não Sim Sim Sim Não

52

3.05%

Não

47

2.75%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 207 dias e também para a amostra completa de 1707 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 15

Avaliação das Estimativas de VaR Diário com Base no Modelo de Variância Incondicional Janela Móvel T=22 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) de Falhas Falhas de Falhas Falhas Aceita? Aceita? 03/02/1997 a 05/02/1998 06/02/1998 a 12/02/1999 17/02/1999 a 18/02/2000 21/02/2000 a 21/02/2001 22/02/2001 a 01/03/2002 04/03/2002 a 27/02/2003 28/02/2003 a 02/01/2004 (207 obs.) 03/02/1997 a 02/01/2004 Amostra Completa (1707 obs.) 4 5 2 3 2 1 2 1.60% 2.00% 0.80% 1.20% 0.80% 0.40% 0.97% Sim Sim Sim Sim Sim Sim Sim 2 2 2 1 2 2 0 0.80% 0.80% 0.80% 0.40% 0.80% 0.80% 0.00% Sim Sim Sim Sim Sim Sim Sim

19

1.11%

Sim

11

0.64%

Sim

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 207 dias e também para a amostra completa de 1707 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

127

Tabela 16

Avaliação das Estimativas de VaR Diário com Base no Modelo GARCH (1,1) Amostra Fixa de Tamanho T=1729 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce Número de Proporção Número de Proporção H0 H0 Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 02/01/1997 a 06/01/1998 07/01/1998 a 12/01/1999 13/01/1999 a 18/01/2000 19/01/2000 a 19/01/2001 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs.) 02/01/1997 a 02/01/2004 Amostra Completa (1729 obs.) 3 7 5 4 4 3 3 1.20% 2.80% 2.00% 1.60% 1.60% 1.20% 1.31% Não Sim Não Não Não Não Não 7 4 4 7 3 2 2 2.80% 1.60% 1.60% 2.80% 1.20% 0.80% 0.87% Sim Não Não Sim Não Não Não

29

1.68%

Não

29

1.68%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 1729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 17

Avaliação das Estimativas de VaR Diário com Base no Modelo GARCH (1,1) Amostra Fixa de Tamanho T=1729 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 Número de Proporção Número de Proporção H0 Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 02/01/1997 a 06/01/1998 07/01/1998 a 12/01/1999 13/01/1999 a 18/01/2000 19/01/2000 a 19/01/2001 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs.) 02/01/1997 a 02/01/2004 Amostra Completa (1729 obs.) 2 2 1 0 1 2 1 0.80% 0.80% 0.40% 0.00% 0.40% 0.80% 0.44% Sim Sim Sim Sim Sim Sim Sim 2 1 2 2 0 0 0 0.80% 0.40% 0.80% 0.80% 0.00% 0.00% 0.00% Sim Sim Sim Sim Sim Sim Sim

9

0.52%

Não

7

0.40%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 1729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

128

Tabela 18

Avaliação das Estimativas de VaR Diário com Base no Modelo GARCH (1,1) Amostra Crescente e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 02/01/1997 a 06/01/1998 07/01/1998 a 12/01/1999 13/01/1999 a 18/01/2000 19/01/2000 a 19/01/2001 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs.) 02/01/1997 a 02/01/2004 Amostra Completa (1729 obs.) 7 8 3 5 5 3 2 2.80% 3.20% 1.20% 2.00% 2.00% 1.20% 0.87% Sim Sim Não Não Não Não Não 1 4 2 3 2 2 0 0.40% 1.60% 0.80% 1.20% 0.80% 0.80% 0.00% Não Não Não Não Não Não Não

33

1.91%

Não

14

0.81%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 1729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 19

Avaliação das Estimativas de VaR Diário com Base no Modelo GARCH (1,1) Amostra Crescente e Nível de Significância de 1% Cia. Vale do Rio Doce Petrobrás H0 Número de Proporção Número de Proporção H0 Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 02/01/1997 a 06/01/1998 07/01/1998 a 12/01/1999 13/01/1999 a 18/01/2000 19/01/2000 a 19/01/2001 22/01/2001 a 28/01/2002 29/01/2002 a 28/01/2003 29/01/2003 a 02/01/2004 (229 obs.) 02/01/1997 a 02/01/2004 Amostra Completa (1729 obs.) 2 1 1 0 0 3 1 0.80% 0.40% 0.40% 0.00% 0.00% 1.20% 0.44% Sim Sim Sim Sim Sim Sim Sim 1 0 0 0 1 0 0 0.40% 0.00% 0.00% 0.00% 0.40% 0.00% 0.00% Sim Sim Sim Sim Sim Sim Sim

8

0.46%

Não

2

0.12%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 229 dias e também para a amostra completa de 1729 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

129

Tabela 20

Avaliação das Estimativas de VaR Diário com Base no Modelo de Simulação Histórica Janela Móvel T=126 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) de Falhas Falhas de Falhas Falhas Aceita? Aceita? 11/07/1997 a 13/07/1998 14/07/1998 a 19/07/1999 20/07/1999 a 20/07/2000 21/07/2000 a 25/07/2001 26/07/2001 a 31/07/2002 01/08/2002 a 01/08/2003 04/08/2003 a 02/01/2004 (103 obs.) 11/07/1997 a 02/01/2004 Amostra Completa (1603 obs) 12 12 14 8 14 12 0 4.80% 4.80% 5.60% 3.20% 5.60% 4.80% 0.00% Sim Sim Sim Sim Sim Sim Não 17 13 10 5 11 8 4 6.80% 5.20% 4.00% 2.00% 4.40% 3.20% 1.60% Sim Sim Sim Sim Sim Sim Sim

72

4.49%

Sim

68

4.24%

Sim

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 103 dias e também para a amostra completa de 1603 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 21

Avaliação das Estimativas de VaR Diário com Base no Modelo de Simulação Histórica Janela Móvel T=126 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 Número de Proporção Número de Proporção H0 Período (aprox. 250 dias) de Falhas Falhas de Falhas Falhas Aceita? Aceita? 11/07/1997 a 13/07/1998 14/07/1998 a 19/07/1999 20/07/1999 a 20/07/2000 21/07/2000 a 25/07/2001 26/07/2001 a 31/07/2002 01/08/2002 a 01/08/2003 04/08/2003 a 02/01/2004 (103 obs.) 11/07/1997 a 02/01/2004 Amostra Completa (1603 obs) 7 4 4 2 3 2 0 2.80% 1.60% 1.60% 0.80% 1.20% 0.80% 0.00% Não Sim Sim Sim Sim Sim Sim 6 4 4 1 2 1 0 2.40% 1.60% 1.60% 0.40% 0.80% 0.40% 0.00% Sim Sim Sim Sim Sim Sim Sim

22

1.37%

Sim

18

1.12%

Sim

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 103 dias e também para a amostra completa de 1603 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 1%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

130

Tabela 22

Avaliação das Estimativas de VaR Diário com Base no Modelo de Simulação Histórica Janela Móvel T=252 e Nível de Significância de 5% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) de Falhas Falhas de Falhas Falhas Aceita? Aceita? 09/01/1998 a 14/01/1999 15/01/1999 a 19/01/2000 20/01/2000 a 22/01/2001 23/01/2001 a 29/01/2002 30/01/2002 a 29/01/2003 30/01/2003 a 02/01/2004 (227 obs.) 02/01/1997 a 02/01/2004 Amostra Completa (1477 obs) 11 1 12 11 13 2 4.40% 0.40% 4.80% 4.40% 5.20% 0.88% Sim Não Sim Sim Sim Não 12 4 11 7 11 4 4.80% 1.60% 4.40% 2.80% 4.40% 1.60% Sim Não Sim Sim Sim Não

50

3.39%

Não

49

3.32%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 227 dias e também para a amostra completa de 1477 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

Tabela 23

Avaliação das Estimativas de VaR Diário com Base no Modelo de Simulação Histórica Janela Móvel T=252 e Nível de Significância de 1% Petrobrás Cia. Vale do Rio Doce H0 H0 Número de Proporção Número de Proporção Período (aprox. 250 dias) Falhas de Falhas Falhas de Falhas Aceita? Aceita? 09/01/1998 a 14/01/1999 15/01/1999 a 19/01/2000 20/01/2000 a 22/01/2001 23/01/2001 a 29/01/2002 30/01/2002 a 29/01/2003 30/01/2003 a 02/01/2004 (227 obs.) 09/01/1998 a 02/01/2004 Amostra Completa (1477 obs) 4 0 3 2 3 0 1.60% 0.00% 1.20% 0.80% 1.20% 0.00% Sim Sim Sim Sim Sim Sim 0 0 2 1 1 0 0.00% 0.00% 0.80% 0.40% 0.40% 0.00% Sim Sim Sim Sim Sim Sim

12

0.81%

Sim

4

0.27%

Não

Obs: A proporção de falhas observadas é calculada para seis sub-amostras de 250 dias, uma sub-amostra de 227 dias e também para a amostra completa de 1477 dias. De acordo com o Teste de Kupiec (por convenção deste trabalho, a 5% de significância), a aceitação da Hipótese Nula corresponde a concordar com a assertiva que a proporção de falhas observadas empiricamente é igual ao nível de significância pré-especificado para o cálculo do VaR (no caso ilustrativo desta tabela, a 5%). Os intervalos de aceitação da Hipótese Nula estão descritos nas tabelas 8 e 9.

131

6 Conclusão
O principal objetivo deste trabalho foi fornecer uma compreensão acerca da questão do chamado risco de mercado, ou de preços, presente quando da posse de ativos financeiros. Buscou-se discutir o tema tanto do ponto de vista qualitativo de análise como do prisma quantitativo de obtenção da estimativa técnica do risco de mercado, i.e., do Value-at-Risk. Em sua vertente qualitativa, presente no capítulo dois, o trabalho procurou oferecer um panorama de análise da forma como as transformações nas finanças internacionais nos últimos dois decênios do século XX engendraram o risco de mercado. Notadamente, a maneira pela qual a dinâmica de ajuste de preços de ativos dos mercados financeiros e de capitais ao redor do globo trouxe riscos aos patrimônios das instituições participantes destes mercados, ensejando, por parte destas, a utilização de instrumentais de análise estatística fundados no conceito do Value-at-Risk. Também nesse ponto do trabalho, discutiu-se a relação entre as mudanças observadas no aparato de supervisão e regulação bancária em decorrência do advento do risco de mercado, especialmente a que determinou a obrigatoriedade das instituições participantes dos mercados financeiros e de capitais calcularem sua exigência de capital, para fazer face ao risco de mercado de suas posições, com base em um instrumental de Value-at-Risk. Já sob a ótica de exposição quantitativa da questão do risco de mercado, foi apresentado no capítulo três o conceito estatístico de Value-at-Risk para, a partir disto, levar a cabo a investigação de três metodologias distintas utilizadas para a obtenção desta estimativa técnica, a saber: modelo de variância não-condicional e modelo de variância condicional – GARCH (1,1), ambas da classe dos métodos paramétricos; e modelo de Simulação Histórica, esta uma metodologia nãoparamétrica. Essas três metodologias de estimação do Value-at-Risk foram, então, testadas empiricamente para as duas séries de ações analisadas em detalhes no capítulo quatro, sendo que os resultados deste exercício encontram-se disponíveis no capítulo cinco e podem ser resumidos da seguinte forma: a) apesar da hipótese de distribuição Normal dos retornos não ter se mostrado tão adequada no exame estatístico empreendido no capítulo quatro, os dois modelos paramétricos que se utilizaram desta premissa, o modelo incondicional e o GARCH (1,1), apresentaram resultados até certo ponto satisfatórios, sendo que o primeiro, mesmo com a 133

flexibilização obtida através da utilização de janelas móveis mais reduzidas do tipo T=11, apresentou performance inferior ao segundo, o qual, de longe, foi aquele que conferiu a melhor estrutura de resposta dinâmica em relação às mudanças nos níveis de volatilidade vigentes, bem como a menor proporção relativa de falhas de ocorrência; b) por outro lado, a despeito de sua simplicidade e facilidade de implementação, o modelo não-paramétrico de Simulação Histórica foi aquele em se verificou a maior proporção relativa de falhas de ocorrência, exatamente em virtude de sua baixa capacidade de resposta à mudanças nos níveis de volatilidade em mercado. Convém ressaltar que, no que tange às proporções de falhas verificadas empiricamente, o desempenho dos modelos paramétricos poderia ter sido melhor caso a modelagem estatística estivesse sido feita com uma distribuição que acomode caudas mais pesadas, do tipo de uma T-Student. Em se tratando do conjunto dos modelos analisados, sob o prisma de visão da autoridade reguladora, é importante lembrar que a proporção de falhas (e, na razão direta, a exigência de capital) observada em todos modelos poderia ter sido significativamente menor (maior exigência de capital) caso se utilizasse o fator de histeria (ver Tabela 1) designado por aquela autoridade no âmbito da adequação de suas instituições financeiras às normas de modelos internos delineadas pelo Comitê Basiléia. Com relação aos resultados obtidos, deve-se notar que, mesmo para modelos mais acurados como o GARCH (1,1), grande parte das falhas de ocorrência exibidas nas estimativas do Value-at-Risk esteve concentrada em momentos de graves crises financeiras ocorridas ou no plano doméstico ou no plano internacional. Destarte, em se tratando das recomendações contidas no aparato de supervisão e regulação bancária do Comitê Basiléia, convém lembrar que este prevê a possibilidade de que modelos internos desenvolvidos pelas instituições que não tenham atingido o desempenho mínimo esperado (no máximo quatro falhas em um período de 250 dias úteis) não sejam automaticamente penalizados. Isto em razão de que, ao invés de simplesmente descartar o modelo criado in house, deve ser competência da autoridade de supervisão e regulação financeira avaliar o contexto e as circunstâncias em que o desempenho abaixo do previsto possa ter ocorrido, buscando, com isso, detectar se o modelo interno realmente apresenta inconsistências ou falhas de concepção. Os caminhos para investigação quantitativa do assunto aqui abordado são inúmeros. Cada vez mais esforços vêm sendo empenhados, tanto no mundo 134

acadêmico como no universo corporativo, na direção do desenvolvimento de modelos alternativos de estimação do risco de mercado. Assim, considerando um dos objetivos almejados por este trabalho, faz-se importante a sugestão de alguns direcionamentos no campo do estudo de metodologias de Value-at-Risk. Primeiramente, é razoável testar os modelos paramétricos apresentados para distribuições que acomodem caudas mais pesadas, do tipo da T-Student. Isto faria com que os intervalos de confiança fossem mais extensos, podendo, deste modo, evitar algumas falhas de ocorrência. Em segundo lugar, é relevante testar os modelos apresentados neste trabalho para carteiras de ativos. A questão chave nesse tipo de exercício consiste em verificar de que maneira a estrutura de correlação dos ativos escolhidos para compor a carteira afeta os resultados das estimativas do Value-at-Risk. É intuitivo que ativos que apresentem correlação negativa entre si tendam a produzir um nível de risco menor para a carteira em comparação à soma de seus riscos individualmente. Em terceiro lugar, os resultados das estimativas de Value-at-Risk poderiam ser analisados à luz de outros critérios, como o de Lopez (1998), o qual se baseia em uma “função perda” que leva em conta a magnitude das falhas de ocorrência quando estas ocorrem. Isto em razão de que o Teste de Kupiec, apresentado neste trabalho, pode em algumas circunstâncias apresentar baixo poder, principalmente em se tratando de séries curtas. Por último, no campo de análise das metodologias não-paramétricas, a técnica da Simulação de Monte Carlo, que envolve um esforço computacional mais elevado e geralmente é uma das mais precisas no cômputo de geração do Value-at-Risk, poderia ser estudada mais aprofundadamente. Fica aqui a sugestão de se testar a Simulação de Monte Carlo a partir de estimativas geradas por um modelo GARCH (1,1). O software MATLAB oferece a opção de realização desse tipo de exercício.

135

7 Bibliografia
ALEXANDER, C. & HULL, J.C. “Risk Management and Analysis: Measuring and Modeling Financial Risk”, John Wiley & Sons, 1999.

ARAÚJO, G.S., MOREIRA, J.M.S. & CLEMENTE, R.S.M. “Avaliação de Métodos de Cálculo de Exigência de Capital para Risco de Mercado de Carteiras de Ações no Brasil”, Trabalho para Discussão nº 67, Banco Central do Brasil, 2003. Disponível em www.bcb.gov.br

ARCOVERDE, G. “Uma Nota sobre o Procedimento de Mapeamento em Vértices nos Modelos de Cálculo de VaR de Instrumentos de Renda Fixa”, in Resenha BM&F, 141, 2000. Disponível em www.risktech.com.br

BELLUZZO, L.G.M. “O Declínio de Bretton Woods e a Emergência dos Mercados Globalizados” in Revista Economia e Sociedade, nº 4, Instituto de Economia da Unicamp, Campinas, junho de 1995.

BIS (BANK FOR INTERNATIONAL SETTLEMENTS) “Recent Innovations in International Banking”, Abril de 1986.

______________________, “An Internal Model-Based Approach to Market Risk Capital Requirements”, April 1995. Disponível em www.bis.org

______________________, “Supervisory Framework for the Use of ‘Backtesting’ in Conjunction with the Internal Models Approach to Market Risk Capital Requirements”, Janeiro de 1996. Disponível em www.bis.org

______________________, “Amendment to the Capital Accord to Incorporate Market Risks”, January 1996. Disponível em www.bis.org

______________________, “OTC Derivatives Market Activity in the Second Half of 2002”, Maio de 2003. Disponível em www.bis.org 137

BLACK, F. “The Pricing of Commodity Contracts”, Journal of Financial Economics n° 2, pgs 167-179, 1976.

BOLLERSLEV, T.R. “Generalized Autoregressive Conditional Heteroskedasticity”, Journal of Econometrics nº 51, pgs 307–327, 1986

BOLLERSLEV, T. R., Y. CHOU, K. F. KRONER; “ARCH Modelling in Finance: A Review of the Theory and Empirical Evidence”, Journal of Econometrics nº 52, pgs 5– 60, 1992.

CANUTO, O. “Mudanças na Regulação Bancária Brasileira”, artigo publicado no jornal Valor Econômico em 23/05/2000.

CANUTO, O. & LIMA, G.T. “Desdobramentos da globalização financeira: regulação substantiva e procedimental”, Texto para Discussão nº 76, IE/UNICAMP, 1999.

______________________, “Regulação Bancária no Mercosul”, Junho de 2000, in BAUMANN, R. (org.) “Mercosul: avanços e limitações”, Brasília, IPEA-CEPAL.

CAVALLARI, M.C.L. “Uma Avaliação das Metodologias do Modelo Value-at-Risk”, Monografia nº 653, IE/UNICAMP, Campinas, dezembro de 2001.

DANIELSSON, J. & DE VRIES, C.G. “Value-at-Risk and Extreme Returns”, 1997, Mimeo, Tinbergen Institute Rotterdan. Disponível em www.riskresearch.org

DANIELSSON, J., HARTMANN, P. & DE VRIES, C.G. “The Cost of Conservatism: Extreme Returns, Value-at-Risk and the Basle Multiplication Factor”, 1998. Disponível em www.riskresearch.org

DICKEY, D.A. & FULLER W.A. “Distribution of the Estimators for Autoregressive Time Series with a Unit Root,” Journal of the American Statistical Association n° 74, p. 427–431, 1979.

138

DOWD, K. “Beyond Value-at-Risk: The New Science of Risk Management”, John Wiley & Sons, 1998.

DUARTE JR., A.M.; PINHEIRO, F.; JORDÃO, M.R. & BASTOS, N.T. “Gerenciamento de Riscos Corporativos: Classificação, Definições e Exemplos” in Resenha BM&F, 134, pp. 25-32, setembro de 1999. Disponível em

www.risktech.com.br

DUFFIE, D. & PAN, J. “An Overview of Value at Risk”. Disponível em www.gloriamundi.org

EDWARDS, F.R. & MISHKIN, F.S. “The Decline of Traditional Banking: Implications for Financial Stability and Regulatory Policy”, working paper 4993. Disponível em www.nber.org

ENDERS, W. “Applied Econometric Time Series”, John Wiley & Sons, 1995.

ENGLE, R.F. “Autoregressive Conditional Heteroskedasticity with Estimates of the Variance of the United Kingdom Inflation”, Revista Econometrica nº 50, p. 987 – 1007, 1982.

EVIEWS, “Eviews 3.0 Help System”, manual de ajuda ao usuário do software Eviews 3.0, versão de 1998.

FARHI, M., “O Futuro no Presente: Um Estudo dos Mercados de Derivativos Financeiros”, Tese de Doutoramento apresentada no Instituto de Economia da Universidade Estadual de Campinas (UNICAMP), 1998.

FIGUEIREDO, R.P.de “Gestão de Riscos Operacionais em Instituições Financeiras – uma Abordagem Qualitativa”, Dissertação de Mestrado em Administração,

Universidade da Amazônia (UNAMA), 2001. Disponível em www.risktech.com.br

139

GOORBERGH, R. van den & VLAAR, P. “Value-at-Risk Analysis of Stock Returns: Historical Simulation, Variance Techniques or Tail Index Estimation?”, De Nederslandsche Bank, march 1999. Disponível em www.smartquant.com

GROUP OF THIRTY, “Derivatives: practices and principles”, Global Derivatives Study Group, New York, 1993.

GUJARATI, D.N., “Basic Econometrics”, 3ª Edição, McGraw Hill.

HAMILTON, J. D. “Time Series Analysis”, Princeton University Press, 1994

HILL, R.CARTER & GRIFFITHS, W.E. & JUDGE, G.G. “Econometria”, Editora Saraiva, 2000.

HIRSHLEIFER, J. & RILEY, J. G., “The Analytics of Uncertainty and Information”, Cambridge University Press, 1992.

HOFFMANN, R. “Estatística para Economistas”, Editora Pioneira, 3ª Edição Revista e Ampliada, 1998.

HOTTA, L.K. et alli

“Modelos Econométricos para Estimação e Previsão de

Volatilidade”, in DUARTE Jr. & VARGA, G. “Gestão de Riscos no Brasil”, Editado por FCE Consultoria, 2003.

JORION, P., “Value-at-Risk: A Nova Fonte de Referência para o Controle do Risco de Mercado”, Bolsa de Mercadorias e Futuros, 1998. J.P.MORGAN & REUTERS, “RiskMetricsTM – Technical Document”, New York, Fourth Edition, 1996. Disponível em www.jpmorgan.com

KEYNES, J.M., “The General Theory of Employment, Interest and Money”, Macmillan And Company Limited, 1964.

140

______________________, “Treatise on Probability”, The Macmillan Press Ltd., 1973.

KREPS, D.M., “A Course in Microeconomic Theory”, Princeton University Press, 1990.

KUPIEC, P. “Techniques for Verifying the Accuracy of Risk Measurement Models”. Journal of derivatives n° 2, p. 73-84, 1995.

LOPEZ, J.A. “Methods for Evaluating Value-at-Risk Estimates: Evidence from Foreign Exchange and Global Equity Portfolios” Mimeo, Federal Reserve Bank of New York, 1998.

MATLAB, “GARCH Toolbox User’s Guide”, Manual de programação do MATLAB, 2002.

MELLLAGI FILHO, A. & ISHIKAWA, S. “Mercado Financeiro e de Capitais”, Editora Atlas, São Paulo, 2000.

MENDONÇA, A.R.R. “Os Acordos da Basiléia: Uma Avaliação do Novo Formato da Regulação Bancária”, Tese de Doutoramento apresentada no Instituto de Economia da Universidade Estadual de Campinas (UNICAMP), 2002.

MOLLICA, M.A., “Uma Avaliação de Modelos de Value-at-Risk: Comparação entre Métodos Tradicionais e Modelos de Variância Condicional”, Dissertação de Mestrado em Economia, FEA-USP, 1999. Também disponível em www.risktech.com.br

MORAIS, A.C.I. & PORTUGAL, S.M., "Modelagem e Previsão de Volatilidade Determinística e Estocástica para a Série do Ibovespa". Disponível em

www.ufrgs.br/ppge/pdf/msp/99-03.pdf.

MOREIRA, J.M.S. & CLEMENTE, R.S.M. “Exigência de Capital para Risco de Mercado de Ações – Método Histórico de VaR com Janela Móvel Dupla”, Notas Técnicas do Banco Central do Brasil, nº 41, Banco Central do Brasil, Outubro de 2003. Disponível em www.bcb.gov.br 141

NELSON, D.B. “Conditional Heteroskedasticity in Asset Pricing: A New Approach”, in Revista Econometrica nº 59, pgs 347 – 370, 1991.

NYGAARD, R. “Exigência de Capital para Risco de Taxas de Juro no Brasil: quais posições devem ser incluídas”, Artigo Técnico, Resenha BM&F nº 143, 2001. Disponível em www.bmf.com.br

PHILLIPS, P.C.B. & PERRON P. “Testing for a Unit Root in Time Series Regression,” Biometrika, 75, 335–346, 1988.

PLIHON, D. “Desequilíbrios Mundiais e Instabilidade Financeira” in Revista Economia e Sociedade, nº 7, Instituto de Economia da Unicamp, Campinas, dezembro de 1996.

SIZENANDO,

C.

“Sistema

Financeiro

Blindado”,

2001.

Disponível

em

www.risktech.com.br

SOUZA, L.A.R. “Valor em Risco em Épocas de Crise”, Dissertação de Mestrado em Economia, FEA-USP, 1999. Também disponível em www.risktech.com.br

VALLS PEREIRA, P.L. “Mapeamento de Instrumentos Financeiros em Fatores de Risco”, 2001. Disponível em www.risktech.com.br

142