Professional Documents
Culture Documents
Cincia da Computao
Universidade Federal de Lavras UFLA,
Lavras MG, Brasil 2012
Resumo
Este trabalho visa apresentar uma abordagem de previso do indice da Bolsa de Valores do
Estado de So Paulo (Ibovespa) para o ano de 2011. Para a previso ser utilizada uma rede neural
com arquitetura MLP (Multilayer Perceptron) implementada a partir do algoritmo Backpropagation
utilizando software Scilab. O objetivo desse estudo de previso mostrar como a rede neural se
comporta e como ela pode ser de grande valia para previses com grandes quantidades de dados.
Palavras-Chave: Perceptron de multiplas camadas; rede neural artificiais;
Bolsa de valores;Ibovespa.
Abstract
This paper presents an approach for predicting the index of the Stock Exchange of So Paulo
(Bovespa) for the year 2011. For the prediction will be used a neural network architecture with MLP
(Multilayer Perceptron) deployed from the Backpropagation algorithm using Scilab software. The
objective of this study for forecasting work is to show how the neural network behaves and how it can be
valuable for forecasting with large amounts of data.
Keywords: multilayer perceptron; artificial neural network; stock exchange; Bovespa.
1. Introduo
Atualmente com o grande aumento da dissiminao de informaes e fcil
obteno de dados, a informao se propaga em uma velocidade que anos atrs seria
algo inimaginavel, tendo isso em vista, o estudo de redes neurais artificiais tem
ganhado espao cada dia mais, esses dados podem ser utilizados para a otimizao
de diversos servios e estudos resultando em grandes melhorias em diversas reas de
cincia e tecnologia.
As redes neurais artificiais foram desenvolvidas com o objetivo de assemelharse a mesma forma de aquisio de conhecimento e de aprendizagem que o cerebro
humano, nessa assemelhao o fato mais importante o de conseguir trabalhar com
dados complexos e no lineares.
Nos dias atuais com as novas tcnicas computacionais que acompanham dados
em tempo real, a rede neural tem encontrado aplicaoes de grande importncia em
vrias reas que trabalham com sries temporais complexas, dentre elas temos como
exemplos: a previso de clima, rea financeira, trafego da internet entre outras.
Sobre outro paradigma temos o mercado de aes, este uma rea de alta
complexidade onde muitos modelos matematicos tem sido desenvolvidos, entretanto
est sendo notado que a tcnica de rede neurais pode produzir com sucesso um
modelo eficiente na previso da mesma. Um fator importante no mercado de aes
indice gerado pela media geral das cotaes das aes chamado Ibovespa (Indice da
bolsa de valores do estado de So Paulo), sua avaliao pode ajudar a identificar seu
comportamento e auxliar nas transaes do processo de deciso de investimento.
2. Descrio do Problema
O trabalho visa criao de uma rede neural para fazer previses do Ibovespa (
indice da bolsa de valores do estado de So Paulo) para o ano de 2011.
A bolsa de valores muito imprevisivel, podendo ter grandes variaes de
valores ao decorrer de apenas um dia,se tratando de meses ou anos seu
comportamento pode ser ainda mais instvel. Entretanto, apesar das dificuldades, um
padro pode ser definido atrves do comportamento de cotaes anteriores e com o
[Xn] Entradas
[Wn] Pesos Sinpticos
[] Funo Soma
[f(uk)] Funo de Ativao
[y] Sada
2.2. Topologia
As redes neurais so construidas utilizando determinadas topologias, sendo
cada uma delas especificas para cada tipo de problema. Os chamados perceptrons so
as redes que possuem apenas uma camada de entrada, onde os dados so logo
processados e encaminhados diretamente para saida aps passar pela funo de
ativao.
Outra topologia bastante utilizada so os perceptrons de multiplas camadas, que
possuem o que podemos chamar de camadas intermediarias. Os dados sero
processados por diferentes quantidades de neuronios podendo resolver problemas
2.3. Treinamento
Uma rede neural possui dois tipos de treinamento. O primeiro deles o
supervisionado, onde a rede possui um professor que verifica os dados reais e os
confere com os dados de saida do aprendizado retornando o valor de um erro para a
rede. O segundo tipo de treinamento o no-supervisionado, onde no existe um
professor e a rede ento aprende atravs de exemplos de dados semelhantes para
definir seu aprendizado.
Para os perceptrons de de multiplas camadas um bom algoritmo de treinamento
o backprogation do tipo supervisionado que acontece em duas etapas, a primeira
onde feita a recepo dos dados indo em direo a camada de sada, e a segunda
etapa quando ocorre a transitao inversa dos dados, onde calculado o erro da
rede e alterao dos pesos.
2198
18898
7499
181199
17100
152101
289101
205102
2712102
148103
253104
511104
226105
12106
149106
45107
1712107
58108
183109
2910109
186110
Na figura 3.2 podem ser visto os dados para teste de janeiro de 2011 at
dezembro de 2011. Os dados de teste so necessrios para compara-los com a
previso da rede e assim o erro dentre eles ser calculado.
80.000,00
70.000,00
60.000,00
50.000,00
40.000,00
30.000,00
20.000,00
10.000,00
31111
191111
72111
232111
153111
313111
184111
65111
245111
96111
286111
147111
18111
178111
29111
219111
710111
2610111
1411111
112111
1912111
4. Resultados
Os parametros foram alterados diversas vezes para a obteno de um erro que
fosse aceitvel, por se tratar de muitos dados o treinamento muito demorado e
consequentemente o numero de testes foi limitado. A tabela 4.1 contem os melhores
parametros utilizados e os resultados obtidos:
Tabela 4.1: Parametros da arquitetura da RNA
PC 1
Parametros
A
Camada de Ent.
10
C. Oculta 1
20
C.Oculta 2
10
Camada de Saida
1
Taxa de Aprendizado
0,02
Mometo
0,9
Epocas
1500
Resultados Obtidos
Tempo
51,37 min
Erro
0,685722
Erro Quadrtico
0,005922
PC 1
B
10
20
10
1
0,02
0,9
3000
121,428 min
0,97512
0,004822
PC
C
PC
D
PC
E
PC
F
A figura 4.1 refere-se ao treinamento da rede que teve o menor erro de previso,
de acordo com a tabela 4.1 representado pelo parametro C.
Para os testes foi utilizado os pesos sinapticos obtidos pelo treinamento, com
variaes de no mximo 2%. Na figura 4.3 segue a previso da rede em relao as
cotaes reais do ano de 2011.
escondidas. No caso da janela quanto menor era seu tamanho mais rpido era o
treinamento, no caso do momento quanto maior, mais rapido era o treinamento.
Os resultados independiam da alteraes dos parametros podendo ser
concluido que nem sempre necessrio grandes quantidades de neuronios na
camadas escondidas, ou no tamanho da janela para se ter erros satisfatrios.
A maior dificuldade foi a escolha dos parametros, dado que mudanas mnimas
resultavam em variaes de erros grandes, chegando por fim a considerao de que a
criaao de uma forma a mudar os parametros automaticamente otimizaria a obteno
de resultados de forma eficiente.
5.
Concluso
Os resultados obtidos revelam que as redes neurais artificiais apresentam
previses de forma eficiente, uma vez que os erros foram relativamente baixos.
Erros baixos independem se os valores dos parametros so altos, podendo ser
concluido que nem sempre necessrio altas quantidades de neuronios na camadas
de entrada ou camadas escondidas para se obter erros menores. Do mesmo modo,
vale para as taxas de aprendizado ou do valor do momento. Portanto vrias outras
arquiteturas podem ser testadas podendo ser encontrados erros ainda mais satifatrios
dos que os atuais.
A maior dificuldade na construo de uma rede neural a definio dos seus
parametros, pois para cada problema especifico tem-se resultados diferentes. A partir
do momento que os parametros so ajustados de modo que o erro seja o mais baixo
possvel, a rede est configurada e poder ser utlizada para resolver problemas da
mesma origem do treinamento.
6. Referncias
HRISTEV, Ryurick M. Matrix Techniques in Artificial Neural Networks,
University of Canterbury 2000
CERQUEIRA ,Eduardo O.; ANDRADE Joo C.; POPPI Ronei J.; MELLO,
Cesar. Redes Neurais E Suas Aplicaes Em Calibrao Multivariada,UNICAMP
2001
CASTRO, Cristiano Leite de. Sistema Inteligente para Previso on-line do
ndice Ibovespa baseado em Redes Neurais Artificiais, UFMG 2003