Professional Documents
Culture Documents
INSTITUTO DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
ESTUDOS ESPECIAIS
REDES NEURAIS,
TRANSFORMADAS WAVELET
ATP
1.1 INTRODUÇÃO
Wavelet, ou Ondaletas, são funções capazes de decompor e descrever sinais de tal forma
que os mesmos possam ser analisados em diferentes escalas de tempo e frequência. A
decomposição de uma função através de wavelets é conhecida como Transformada Wavelet.
Trata-se de uma ferramenta bastante versátil com forte conteúdo matemático e com grande
potencial de aplicação. As Transformadas Wavelet podem ser consideradas com uma extensão da
Transformada de Fourier.
As primeiras menções a respeito das Wavelets foi na tese de A. Haar, em 1909, no entanto
foi a partir de 1980 que o estudo das Wavelets começou a se desenvolver. Em 1982, o engenheiro
Francês Jean Morlet desenvolveu a idéia da Transformada Wavelet, aplicando a ferramenta na
análise de ondas sísmicas. Para obter bons resultados no tempo, para transitórios de alta
frequência, e boa resolução de frequência, para transitórios de baixa frequência, Molet introduziu
a idéia de que as Wavelets são uma família de funções construídas a partir de dilatações e
translações de uma função simples, denominada Wavelet Mãe.
Ψ, = Ψ
||
(1)
às componentes de alta frequência. Por outro lado, se || > 1, a wavelet estará dilatada, ou seja,
wavelet estará menor, no domínio do tempo, que a wavelet mãe, correspondendo principalmente
, por outro lado, é um parâmetro que provocará a translação da função wavelet, proporcionando
com largura maior no tempo, correspondendo às componentes de baixa frequência. O parâmetro
Para que uma função seja considerada uma wavelet, certas condições matemáticas devem
ser satisfeitas:
A transformada Wavelet Contínua (TWC) de uma função $ é uma função que dependerá dos
parâmetros de escala (ou frequência) () e de tempo (ou posição) (&) e será dada pela relação:
Onde:
Ψ - Wavelet mãe.
Para || ≪ 1 teremos um sinal altamente comprimido, utilizado para estudo das componentes de
altas freqüências dos sinais decompostos, por outro lado para || ≫ 1, teremos um sinal altamente
expandido, usado para estudo de componentes de baixas freqüências do sinal decomposto.
1.5 TRANSFORMADA WAVELET DISCRETA
− 0&#
'+,, = $Ψ# +
- .
(6)
wavelet mãe que dependerá dos coeficientes 1 e 0 que incidirão sobre os passos discretos de escala e
Vale ressaltar que a discretização a que se refere esse tipo de transformada diz respeito apenas à
&2 = 1. Isso faz com que em cada nível de decomposição, o escalonamento seja uma potência de 2 e o
deslocamento seja proporcional a 2. Escalonamentos por potência de 2 podem ser facilmente
implementados retirando-se uma amostra em cada duas do sinal original, resultando em um sinal com
metade do número de elementos do sinal original. Este processo é denominado de subamostragem. A
figura 7 ilustra o processo de decomposição de um sinal original S em múltiplos níveis.
2.1 INTRODUÇÃO
As Redes Neurais Artificiais (RNA) foram desenvolvidas com o intuito de minimizar os esforços
humanos na execução de tarefas tediosas e repetitivas. O assunto tem ganhado bastante popularidade nas
últimas décadas e a técnica baseia-se no modelo de funcionamento do neurônio biológico.
Estudo nas áreas de RNA vem sendo desenvolvidas desde as décadas de 1930. Rosemblatt
desenvolveu um modelo de neurônio artificial denominado de Perceptron, porém foi a partir de 1980 que
Rumelhart desenvolveu uma aplicação mais específica das RNA, propondo um algoritmo ao qual se
denominou de Backpropagatio.
A implementação das RNA dependerá da aplicação na qual será usada, pois sua arquitetura
dependerá diretamente disso. A arquitetura das RNA está relacionada com a disposição com que os
neurônios estão dispostos e interconectados entre si.
O neurônio é o elemento básico que constitui uma RNA e sua concepção inicial foi baseada no
neurônio biológico. Apresentam os seguintes modelos:
• De McCoulloch-Pitts;
• De Fukushima
• Adaline
• Perceptron
O aprendizado pode ser classificado através da existência ou não de uma comparação de erros e
acertos de modo a ajustar os pesos. No caso da existência deste comparador, classifica-se o aprendizado
como sendo supervisionado, caso contrário o aprendizado será não-supervisionado. No aprendizado não-
supervisionado o ajuste dos pesos não é baseado na informação de saída da rede. Este tipo de aprendizado
é também denominado de auto-organizável ou competitivo.
Neste tipo de rede, os neurônios de saída são arranjados em uma estrutura bidimensional cujos
neurônios apresentem características parecidas, de forma que, cada neurônio de uma determinada região
será ativado por padrões similares aos padrões dos demais neurônios próximos. Desta forma, a rede
realizará um mapeamento dos padrões de entrada na estrutura de saída resultando que cada neurônio e
seus vizinhos possuam uma característica particular correspondente ao padrão que a ativou.
Onde:
A = 1, 2, 3, … , C
A combinação de vetores de entrada com vetores de peso obtém-se um produto interno, que será
utilizado como indicador da localização aonde a bolha de ativação irá se formar. Esta localização é feita
selecionando-se o neurônio com maior produto interno. A melhor combinação de vetores (maior produto
interno) será determinada pela mínima distância euclidiana entre vetores, através da relação:
Esta relação identifica o neurônio mais ativado pelo padrão de entrada. O neurônio que satisfizer
esta condição será chamado de neurônio vencedor. Vale ressaltar também a definição de função de
vizinhança Λ, D, que define um número restrito de neurônios considerados vizinhos do neurônio
vencedor.
Define-se então:
1
N? = Q S
Se o neurônio estiver dentro da vizinhança Λ
0
(11)
Se o neurônio estiver fora da vizinhança Λ
U
FON? P = T S
Se o neurônio j estiver ativo
Sem perda de generalidade, pode-se utilizar o mesmo fator para o vetor de entrada e para o vetor
de peso, ou seja, M = U, neste caso a equação 13 ficará reescrita da seguinte forma:
As redes de Kohonen têm sido bastante eficientes quando utilizadas como selecionador ou
classificador de padrões. A experiência tem mostrado que quando treinada de forma eficiente poderá ser
usada em aplicações reais, devido sua simplicidade de implementação e sua poderosa capacidade de
extrair similaridades entre padrões.
CAPÍTULO 3 – ALTERNATIVE TRANSIENTS PROGRAM
3.1 INTRODUÇÃO
A partir da década de 60 iniciou-se o desenvolvimento do programa EMTP (Eletromagnetic
Transient Program) por Herman W. Dommel, para a Bonneville Power Administration (BPA). O programa
inicial trabalhava com simulação de circuitos monofásicos através de modelos de indutâncias, capacitâncias
e resistências em linhas sem perdas, incluindo uma chave e uma fonte de excitação. Os elementos
concentrados utilizavam a regra de integração trapezoidal e as linhas de transmissão, o método Bergeron.
Com o passar dos anos, o programa foi sofrendo alterações de diversos colaboradores do mundo
todo. A partir de 1973 Scott Meyer assumiu a coordenação e o desenvolvimento do programa na BPA,
estabelecendo um processo de desenvolvimento articulado com os usuários do EMTP, que o tornou uma
ferramenta poderosa em estudos de transitórios em sistemas elétricos.
Divergências entre Scott Meyer e o EPRI (Electric Power Research Institute, que investiu no projeto
do EMTP a partir de 1984) levaram à criação de uma nova versão do EMTP (baseada na versão M39), a qual
foi enviada para a Bélgica, onde foi instalado o Leuven EMTP Center (LEC). Esta nova versão é denominada
ATP - Alternative Transient Program, que constitui a continuação das versões anteriores do programa.
O ATP possui muitos modelos de equipamentos, tais como linhas de transmissão, máquinas
rotativas, pára-raios. Distúrbios simétricos e assimétricos podem ser simulados utilizando-se o ATP, tais
como faltas, raios, operações de comutação etc.
As seguintes rotinas de apoio estão disponíveis no ATP:
• LINE CONSTANTS, CABLE CONSTANTS e CABLE PARAMETERS: para o cálculo
de parâmetros elétricos de linhas aéreas e cabos.
• Geração de dados de linhas de transmissão: JMARTI Setup, SEMLYEN Setup e NODA Setup.
• Cálculo do modelo de dados para transformadores (XFORMER e BCTRAN).
• Conversão de curvas de saturação e histerese.
Um pré-processador com interface gráfica foi desenvolvida tornando a utilização do ATP bem mais
amigável e acessível. Esta plataforma é denominada de ATPDraw. A figura 14, a seguir ilustra a aparência da
interface gráfica do ATPDraw Versão 5.5.
Os parâmetros elétricos de todos os componentes podem ser ajustados através de um duplo clique
sobre o ícone do elemento.
Todos os elementos disponíveis, com exceção do TACS, possuem seus equivalentes não-lineares
que podem também ser modelados através de suas curvas características. A tabela 2, a seguir, apresenta os
elementos não-lineares disponíveis no ATP.
Tabela 2 – Elementos Não-lineares
Vários são os modelos de fonte disponíveis no ATP, desde fontes, tais como fontes AC e DC, fontes
em Rampa, fontes em Degrau, etc. A tabela a seguir ilustra os principais tipos de fontes disponíveis.
2,0
[A]
1,5
1,0
0,5
0,0
-0,5
-1,0
-1,5
-2,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
[A] [A]
[A]
-0,1
0,4 1,4
-0,4
0,1 1,0
-0,7
-0,2 0,6
-1,0
-0,5 0,2
-1,3
Figura 18 – (a) Inrush na Fase 1 (b) Inrush na Fase 2 (c) Inrush na Fase 3
40
[A]
30
20
10
-10
-20
-30
-40
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
Percebe-se que o comportamento das demais fases permaneceu quase inalterado, quando
comparado com o caso anterior. As figuras 20 e 21 ilustram a simulação de curto-circuito bifásico e trifásico
respectivamente.
300
[A]
200
100
-100
-200
-300
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
350,0
[A]
262,5
175,0
87,5
0,0
-87,5
-175,0
-262,5
-350,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
-1
-2
-3
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
40
[A]
25
10
-5
-20
-35
-50
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
[A]
40
20
-20
-40
-60
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN
7,0
[A]
4,4
1,8
-0,8
-3,4
-6,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN