You are on page 1of 26

UNIVERSIDADE FEDERAL DO PARÁ

INSTITUTO DE TECNOLOGIA
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

ESTUDOS ESPECIAIS
REDES NEURAIS,
TRANSFORMADAS WAVELET
ATP

RAIDSON JENNER NEGREIROS DE ALENCAR


Conteúdo
CAPÍTULO 1 – TRANSFORMADAS WAVELET ...................................................................................................... 3
1.1 INTRODUÇÃO..................................................................................................................................... 3
1.2 FUNÇÕES WAVELET ........................................................................................................................... 3
1.3 FAMÍLIAS DE WAVELETS .................................................................................................................... 4
1.3.1 Wavelet de Haar ........................................................................................................................ 4
1.3.2 Wavelet de Daubechies ............................................................................................................. 5
1.3.3 Wavelet Coiflet .......................................................................................................................... 5
1.3.4 Wavelet Symlet .......................................................................................................................... 5
1.4 TRANSFORMADAS WAVELET CONTÍNUA .......................................................................................... 6
1.5 TRANSFORMADA WAVELET DISCRETA .............................................................................................. 7
1.6 ANÁLISE MULTIRESOLUÇÃO .............................................................................................................. 7
1.7 IMPLEMENTAÇÃO ATRAVÉS DE BANCO DE FILTROS ......................................................................... 7
1.8 SÍNTESE OU RECONSTRUÇÃO ............................................................................................................ 8
CAPÍTULO 2 – REDES NEURAIS ARTIFICIAIS ....................................................................................................... 9
2.1 INTRODUÇÃO..................................................................................................................................... 9
2.2 TOPOLOGIA DAS RNA ...................................................................................................................... 10
2.2.1 Redes Feedforward.................................................................................................................. 10
2.2.2 Redes Recorrentes ................................................................................................................... 10
2.2.3 Redes Auto-organizáveis ......................................................................................................... 11
CAPÍTULO 3 – ALTERNATIVE TRANSIENTS PROGRAM ..................................................................................... 13
3.1 INTRODUÇÃO................................................................................................................................... 13
3.2 MODELOS DISPONÍVEIS NO ATP...................................................................................................... 14
3.2.1 Ramos Lineares e Não-lineares ............................................................................................... 14
3.2.2 Linhas com Parâmetros Concentrados .................................................................................... 15
3.2.3 Modelos com Parâmetros Distribuídos ................................................................................... 16
3.2.4 Modelos de Fontes .................................................................................................................. 17
3.2.5 Modelos de Máquinas Elétricas............................................................................................... 18
3.2.4 Modelo de Transformadores ................................................................................................... 19
3.3 Simulação de Transitórios em Transformador usando ATP ............................................................ 19
3.3.1 Magnetização do Transformador ............................................................................................ 20
3.3.2 Magnetização com Curto-Circuito no Primário ....................................................................... 21
3.3.3 Magnetização Curto-Circuito no Secundário........................................................................... 22
3.3.4 Magnetização com Carga Leve no Secundário ........................................................................ 24
Bibliografia:...................................................................................................................................................... 25
CAPÍTULO 1 – TRANSFORMADAS WAVELET

1.1 INTRODUÇÃO
Wavelet, ou Ondaletas, são funções capazes de decompor e descrever sinais de tal forma
que os mesmos possam ser analisados em diferentes escalas de tempo e frequência. A
decomposição de uma função através de wavelets é conhecida como Transformada Wavelet.
Trata-se de uma ferramenta bastante versátil com forte conteúdo matemático e com grande
potencial de aplicação. As Transformadas Wavelet podem ser consideradas com uma extensão da
Transformada de Fourier.

As primeiras menções a respeito das Wavelets foi na tese de A. Haar, em 1909, no entanto
foi a partir de 1980 que o estudo das Wavelets começou a se desenvolver. Em 1982, o engenheiro
Francês Jean Morlet desenvolveu a idéia da Transformada Wavelet, aplicando a ferramenta na
análise de ondas sísmicas. Para obter bons resultados no tempo, para transitórios de alta
frequência, e boa resolução de frequência, para transitórios de baixa frequência, Molet introduziu
a idéia de que as Wavelets são uma família de funções construídas a partir de dilatações e
translações de uma função simples, denominada Wavelet Mãe.

1.2 FUNÇÕES WAVELET


As funções Wavelet são definidas como:

Ψ,  = Ψ 


|| 
(1)

Onde  é um número real conhecido como parâmetro de dimensionamento, ou


compressão e  é um número real, denominado coeficiente de translação, que identifica a
localização temporal da wavelet. Se || < 1, a wavelet estará comprimida, ou contraída, ou seja, a

às componentes de alta frequência. Por outro lado, se || > 1, a wavelet estará dilatada, ou seja,
wavelet estará menor, no domínio do tempo, que a wavelet mãe, correspondendo principalmente

, por outro lado, é um parâmetro que provocará a translação da função wavelet, proporcionando
com largura maior no tempo, correspondendo às componentes de baixa frequência. O parâmetro

a varredura do sinal a ser analisado. As figuras 1 e 2 a seguir, ilustram os efeitos de compressão e


translação de uma função wavelet do tipo Gaussiana.

Para que uma função seja considerada uma wavelet, certas condições matemáticas devem
ser satisfeitas:

• A função precisa ser absolutamente integrável:

 Ψ < ∞



(2)

• Devem possuir energia finita:

 =  |Ψ|  < ∞



(3)

• A condição de admissibilidade deve ser respeitada:


 | |!
 = # $ < ∞
"
(4)
Onde Ψ% é a transformada de Fourier de Ψ.
• As wavelets complexas não possuem componentes de frequência negativa

Figura 1 – Dilatação e Compressão de uma onda Gaussiana

Figura 2 – Efeito de Translação de uma Onda Gaussiana

1.3 FAMÍLIAS DE WAVELETS


Existem diferentes tipos de famílias de wavelets, cujas características variam de acordo com alguns
critérios: suporte, simetria, número de momentos iguais a zero (vanishing moments), regularidade,
ortogonalidade, biortogonalidade etc. A seguir apresenta-se alguns tipos de famílias de wavelets.

1.3.1 Wavelet de Haar


É a mais simples das funções wavelet e assemelha-se a uma função degrau, conforme figura 3 a
seguir.
Figura 3 – Wavelet de Haar

1.3.2 Wavelet de Daubechies


São wavelets ortonormais, de suporte compacto, criadas por Ingrid Daubechies. São as wavelets mais
utilizadas em aplicações em sistemas elétricos de potência. A figura 4 ilustra este tipo de wavelet.

Figura 4 – Wavelet de Daubechies

1.3.3 Wavelet Coiflet


São wavelets mais simétricas que as de Daubechies. Este tipo de wavelet é mostrado na figura 5 a
seguir.

1.3.4 Wavelet Symlet


São wavelets quase simétricas obtidas através da modificação das wavelets Daubechies. As duas
famílias possuem características similares. Este tipo de wavelet é mostrado na figura 6 a seguir.
Figura 5 – Wavelet Coiflet

Figura 6 – Wavelet Symlet

1.4 TRANSFORMADAS WAVELET CONTÍNUA

A transformada Wavelet Contínua (TWC) de uma função $ é uma função que dependerá dos
parâmetros de escala (ou frequência) () e de tempo (ou posição) (&) e será dada pela relação:

', & =  $Ψ  


 
√  
(5)

Onde:

Ψ - Wavelet mãe.

Para || ≪ 1 teremos um sinal altamente comprimido, utilizado para estudo das componentes de
altas freqüências dos sinais decompostos, por outro lado para || ≫ 1, teremos um sinal altamente
expandido, usado para estudo de componentes de baixas freqüências do sinal decomposto.
1.5 TRANSFORMADA WAVELET DISCRETA

A transformada wavelet discreta é definida pela relação:

− 0&# 

'+,, =  $Ψ# +

- . 
(6)

wavelet mãe que dependerá dos coeficientes 1 e 0 que incidirão sobre os passos discretos de escala e
Vale ressaltar que a discretização a que se refere esse tipo de transformada diz respeito apenas à

translação respectivamente. Sendo assim o parâmetro de escala passará a ser  = # + e o parâmetro de


translação passará a ser & = 0&# # + . O parâmetro 1, denominado nível, determina a frequência da
wavelet, enquanto que o parâmetro 0 indicará a posição.

1.6 ANÁLISE MULTIRESOLUÇÃO


A análise multiresolução consiste em desenvolver a representação de um sinal $ em termos de

implementando esse tipo de análise considerando um fator de escala 2 = 2 e um fator de deslocamento


uma base ortogonal, que são as funções escala e wavelet. Em 1988 Mallat desenvolveu um algoritmo

&2 = 1. Isso faz com que em cada nível de decomposição, o escalonamento seja uma potência de 2 e o
deslocamento seja proporcional a 2. Escalonamentos por potência de 2 podem ser facilmente
implementados retirando-se uma amostra em cada duas do sinal original, resultando em um sinal com
metade do número de elementos do sinal original. Este processo é denominado de subamostragem. A
figura 7 ilustra o processo de decomposição de um sinal original S em múltiplos níveis.

Figura 7 – Decomposição de um sinal em múltiplos níveis

1.7 IMPLEMENTAÇÃO ATRAVÉS DE BANCO DE FILTROS


Levando-se em consideração que as transformadas wavelet discretas constituem-se em um
processo de filtragem digital no domínio do tempo, via convolução discreta, seguido de um processo de
subamostragem por 2, o processo de decomposição e análise multiresolução de um sinal pode ser
implementado através de um processo sucessivo de filtros passa-baixas (h) e passa-altas (g), com um
processo de subamostragem (downsampling)na saída de cada filtro, conforme figura 8 a seguir. As saídas
dos filtros passa-baixas e dos filtros passa-altas são denominadas de coeficientes de aproximação e de
detalhes do sinal original, respectivamente. Deste processo resulta a decomposição do sinal em diferentes
níveis, sendo que em cada nível a faixa de frequência é dividida ao meio.
Figura 8 - Decomposição do Sinal através de Banco de Filtros

1.8 SÍNTESE OU RECONSTRUÇÃO


Consiste em obter o sinal original a partir dos coeficientes (aproximação e detalhes) gerados no
processo de decomposição através de um processo de sobreamostragem e filtragem, que é a sequência
inversa do processo do processo de decomposição. A figura 9 a seguir, ilustra uma etapa de um processo de
reconstrução.

Figura 9 – Um estágio de um processo de reconstrução


CAPÍTULO 2 – REDES NEURAIS ARTIFICIAIS

2.1 INTRODUÇÃO
As Redes Neurais Artificiais (RNA) foram desenvolvidas com o intuito de minimizar os esforços
humanos na execução de tarefas tediosas e repetitivas. O assunto tem ganhado bastante popularidade nas
últimas décadas e a técnica baseia-se no modelo de funcionamento do neurônio biológico.

As RNA apresentam algoritmos diferenciados e desenvolvidos especificamente para executar tarefas


tais como: Controle de Sistemas, reconhecimento de padrões e imagens, modelagem de sistemas,
aproximação de funções, dentre outras.

Estudo nas áreas de RNA vem sendo desenvolvidas desde as décadas de 1930. Rosemblatt
desenvolveu um modelo de neurônio artificial denominado de Perceptron, porém foi a partir de 1980 que
Rumelhart desenvolveu uma aplicação mais específica das RNA, propondo um algoritmo ao qual se
denominou de Backpropagatio.

A implementação das RNA dependerá da aplicação na qual será usada, pois sua arquitetura
dependerá diretamente disso. A arquitetura das RNA está relacionada com a disposição com que os
neurônios estão dispostos e interconectados entre si.

O neurônio é o elemento básico que constitui uma RNA e sua concepção inicial foi baseada no
neurônio biológico. Apresentam os seguintes modelos:

• De McCoulloch-Pitts;
• De Fukushima
• Adaline
• Perceptron

Figura 10 – Modelo Simplificado de um Neurônio Artificial

As RNA possuem a característica de aprender por exemplos. Esse processo é denominado de


processo de treinamento ou aprendizagem da RNA. Sob o ponto de vista das RNA, aprender significa
adaptar os pesos das conexões de forma que um resultado desejado seja obtido. O conhecimento, portanto
será armazenado nas matrizes de pesos das conexões.

O aprendizado pode ser classificado através da existência ou não de uma comparação de erros e
acertos de modo a ajustar os pesos. No caso da existência deste comparador, classifica-se o aprendizado
como sendo supervisionado, caso contrário o aprendizado será não-supervisionado. No aprendizado não-
supervisionado o ajuste dos pesos não é baseado na informação de saída da rede. Este tipo de aprendizado
é também denominado de auto-organizável ou competitivo.

2.2 TOPOLOGIA DAS RNA


A topologia de uma RNA é definida pela forma com que os neurônios estão conectados entre si, e é
estabelecida através de um algoritmo de aprendizagem. As principais topologias são:

2.2.1 Redes Feedforward


São também conhecidas como redes diretas. Apresentam a característica de que o fluxo de sinal
possui apenas um sentido de propagação, ou seja, a rede não possui realimentações. A figura 11 a seguir
ilustra esse tipo de rede.

Figura 11 – Rede Feedforward com 4 camadas

2.2.2 Redes Recorrentes


São redes que apresentam pelo menos um ciclo de realimentação. As redes recorrentes mais
comuns são as redes de Elman, ilustrada na figura 12.

Figura 12 – Rede Neural Recorrente


2.2.3 Redes Auto-organizáveis
Este tipo de rede utiliza o aprendizado não-supervisionado, onde não se faz necessário informar a
saída da rede para cada padrão de entrada no processo de treinamento. Neste grupo de RNA as mais
conhecidas são as redes de Kohonen cuja estrutura geral é mostrada na figura 13.

Figura 13 – Redes de Kohonen

Neste tipo de rede, os neurônios de saída são arranjados em uma estrutura bidimensional cujos
neurônios apresentem características parecidas, de forma que, cada neurônio de uma determinada região
será ativado por padrões similares aos padrões dos demais neurônios próximos. Desta forma, a rede
realizará um mapeamento dos padrões de entrada na estrutura de saída resultando que cada neurônio e
seus vizinhos possuam uma característica particular correspondente ao padrão que a ativou.

Considerando o vetor de entrada dado por:


<
4 = 56 6 68 … 6: ; (7)

O vetor de pesos de um dado neurônio =é:


<
>? = 5@? @? @?8 … @?: ; (8)

Onde:

A = 1, 2, 3, … , C

C - Número de neurônios na camada de saída.

A combinação de vetores de entrada com vetores de peso obtém-se um produto interno, que será
utilizado como indicador da localização aonde a bolha de ativação irá se formar. Esta localização é feita
selecionando-se o neurônio com maior produto interno. A melhor combinação de vetores (maior produto
interno) será determinada pela mínima distância euclidiana entre vetores, através da relação:

D6 = EF? 1G0H6 − @? H (9)

Esta relação identifica o neurônio mais ativado pelo padrão de entrada. O neurônio que satisfizer
esta condição será chamado de neurônio vencedor. Vale ressaltar também a definição de função de
vizinhança Λ, D, que define um número restrito de neurônios considerados vizinhos do neurônio
vencedor.

No processo de aprendizagem auto-organizável, os pesos de um determinado neurônio j devem ser


atualizados de acordo com o argumento:
JKL
J
= MN? 6 − FON? P@? (10)

Onde t é o tempo e M é um parâmetro que mede a razão de aprendizagem.

Define-se então:

1
N? = Q S
Se o neurônio estiver dentro da vizinhança Λ

0
(11)
Se o neurônio estiver fora da vizinhança Λ

Exprimindo-se a função FON? P como:

U
FON? P = T S
Se o neurônio j estiver ativo

0 Se o neurônio j não estiver ativo


(12)

Onde α é uma constante positiva.

Da equação (10) tem-se:


M6 − U@?
JKL
=Q S
Se o neurônio j estiver dentro da vizinhança Λ
J
0
(13)
Se o neurônio j estiver fora da vizinhança Λ

Sem perda de generalidade, pode-se utilizar o mesmo fator para o vetor de entrada e para o vetor
de peso, ou seja, M = U, neste caso a equação 13 ficará reescrita da seguinte forma:

MO6 − @? P, Se o neurônio j estiver dentro da vizinhança Λ


JKL
=V S
J
0, Se o neurônio j estiver fora da vizinhança Λ
(14)

Discretizando-se esta equação tem-se:

@? 0 + M056 − @? 0;, A ∈ Λ


@? 0 + 1 = V S
@? 0, Outros valores
(15)

A equação (15) é a equação de ajuste dos pesos sinápticos de um determinado neurônio j

As redes de Kohonen têm sido bastante eficientes quando utilizadas como selecionador ou
classificador de padrões. A experiência tem mostrado que quando treinada de forma eficiente poderá ser
usada em aplicações reais, devido sua simplicidade de implementação e sua poderosa capacidade de
extrair similaridades entre padrões.
CAPÍTULO 3 – ALTERNATIVE TRANSIENTS PROGRAM

3.1 INTRODUÇÃO
A partir da década de 60 iniciou-se o desenvolvimento do programa EMTP (Eletromagnetic
Transient Program) por Herman W. Dommel, para a Bonneville Power Administration (BPA). O programa
inicial trabalhava com simulação de circuitos monofásicos através de modelos de indutâncias, capacitâncias
e resistências em linhas sem perdas, incluindo uma chave e uma fonte de excitação. Os elementos
concentrados utilizavam a regra de integração trapezoidal e as linhas de transmissão, o método Bergeron.
Com o passar dos anos, o programa foi sofrendo alterações de diversos colaboradores do mundo
todo. A partir de 1973 Scott Meyer assumiu a coordenação e o desenvolvimento do programa na BPA,
estabelecendo um processo de desenvolvimento articulado com os usuários do EMTP, que o tornou uma
ferramenta poderosa em estudos de transitórios em sistemas elétricos.
Divergências entre Scott Meyer e o EPRI (Electric Power Research Institute, que investiu no projeto
do EMTP a partir de 1984) levaram à criação de uma nova versão do EMTP (baseada na versão M39), a qual
foi enviada para a Bélgica, onde foi instalado o Leuven EMTP Center (LEC). Esta nova versão é denominada
ATP - Alternative Transient Program, que constitui a continuação das versões anteriores do programa.
O ATP possui muitos modelos de equipamentos, tais como linhas de transmissão, máquinas
rotativas, pára-raios. Distúrbios simétricos e assimétricos podem ser simulados utilizando-se o ATP, tais
como faltas, raios, operações de comutação etc.
As seguintes rotinas de apoio estão disponíveis no ATP:
• LINE CONSTANTS, CABLE CONSTANTS e CABLE PARAMETERS: para o cálculo
de parâmetros elétricos de linhas aéreas e cabos.
• Geração de dados de linhas de transmissão: JMARTI Setup, SEMLYEN Setup e NODA Setup.
• Cálculo do modelo de dados para transformadores (XFORMER e BCTRAN).
• Conversão de curvas de saturação e histerese.
Um pré-processador com interface gráfica foi desenvolvida tornando a utilização do ATP bem mais
amigável e acessível. Esta plataforma é denominada de ATPDraw. A figura 14, a seguir ilustra a aparência da
interface gráfica do ATPDraw Versão 5.5.

Figura 14 – Interface Gráfica do pré-processador ATPDRAW


3.2 MODELOS DISPONÍVEIS NO ATP
O ATP possui uma gama bastante variada de modelos de equipamentos elétricos disponíveis, como
por exemplo, medidores de tensão e corrente, cargas, linhas, geradores, transformadores, chaves etc.

3.2.1 Ramos Lineares e Não-lineares


Constituem-se nos componentes (Capacitores, Resistores e Indutores) que irão compor os ramos e
linhas com comportamento linear. A seguir é apresentado em formato tabular os ícones e breve descrição
de cada um dos modelos disponíveis no ATP. A tabela 1 apresenta os elementos lineares disponíveis e a
tabela 2 apresenta os elementos não-lineares.

Tabela 1 – Elementos Lineares

Os parâmetros elétricos de todos os componentes podem ser ajustados através de um duplo clique
sobre o ícone do elemento.

Todos os elementos disponíveis, com exceção do TACS, possuem seus equivalentes não-lineares
que podem também ser modelados através de suas curvas características. A tabela 2, a seguir, apresenta os
elementos não-lineares disponíveis no ATP.
Tabela 2 – Elementos Não-lineares

3.2.2 Linhas com Parâmetros Concentrados

3.2.2.1 Modelo RLC Pi-equiv. 1


Tabela 3 – Modelos RLC Pi-equiv.1
3.2.2.2 Modelo RL Coupled 51
Tabela 4 – Modelo RL Coupled 51

3.2.2.3 Modelo RLC Sym. 51


Tabela 5 – Modelo RLC Sym. 51

3.2.3 Modelos com Parâmetros Distribuídos


Todas as linhas distribuídas possuem parâmetros independentes da frequência. Dois modelos estão
disponíveis, Transposed Lines e Untransposed Lines, conforme tabelas a seguir:

3.2.3.1 Modelo Transposed Lines


Tabela 6 – Modelo Transposed Lines
3.2.3.2 Untransposed Lines

Tabela 7 - Untransposed Lines

3.2.4 Modelos de Fontes

Vários são os modelos de fonte disponíveis no ATP, desde fontes, tais como fontes AC e DC, fontes
em Rampa, fontes em Degrau, etc. A tabela a seguir ilustra os principais tipos de fontes disponíveis.

Tabela 8 – Modelos de Fontes


3.2.5 Modelos de Máquinas Elétricas

O ATP possui duas categorias de máquinas elétricas: As máquinas Síncronas e as Máquinas


Universais. Todas as máquinas trifásicas são conectadas em Y. A tabela 9 apresenta os modelos existentes.

Tabela 9 – Modelo de Máquinas Elétricas


3.2.4 Modelo de Transformadores
Tabela 10 – Modelos de Transformadores

3.3 Simulação de Transitórios em Transformador usando ATP


Para demonstrar a utilização do ATP na simulação de transitórios em transformadores de potência
foram realizadas simulações de diversas situações transitórias no sistema exemplo, ilustrado na figura 15, a
seguir. O sistema elétrico de potência a ser utilizado nos testes consiste de um transformador trifásico de
três enrolamentos, com o terceiro enrolamento mantido aberto, conexão ∆/Y, potência nominal 250 MVA,
tensão 400/132/18 kV. Os dados do transformador bem como sua curva de magnetização foram obtidos da
literatura Prikler (2002). O modelo de transformador utilizado no EMTP/ATP é o modelo BCTRAN.

Figura 15 – Sistema de Potência utilizando nas Simulações


O sistema foi modelado conforme modelos disponíveis no ATP e foram simulados diversos casos de
curto-circuito monofásicos, bifásicos e trifásicos nas buchas primárias e secundárias do transformador, bem
como situações de magnetização (inrush) com e sem ocorrências de curto-circuito. A figura 16, a seguir,
ilustra o sistema de potência após a modelagem no ATP

Figura 16 – Sistema de Potência modelado no ATP

3.3.1 Magnetização do Transformador


A energização do transformador é realizada mantendo-se o secundário sem carga. A figura 17
mostra o resultado da simulação da magnetização do transformador, por um período de 0.5 s. Percebe-se a
formação da corrente de inrush, com sua característica peculiar, apresentado comportamento assimétrico
em relação ao eixo horizontal e semiciclos incompletos.

2,0
[A]
1,5

1,0

0,5

0,0

-0,5

-1,0

-1,5

-2,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 17 – Corrente de Inrush na Magnetização do Transformador

A figura 18 ilustra, isoladamente as correntes nas fases 1, 2 e 3 respectivamente.


0,7 1,8 0,2

[A] [A]
[A]
-0,1
0,4 1,4

-0,4

0,1 1,0

-0,7

-0,2 0,6
-1,0

-0,5 0,2
-1,3

-0,8 -0,2 -1,6


0,0 0,1 0,2 0,3 0,4 [s] 0,5 0,0 0,1 0,2 0,3 0,4 [s] 0,5 0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN (f ile Exemplo2.pl4; x-v ar t) c:P02 -PN (f ile Exemplo2.pl4; x-v ar t) c:P03 -PN

(a) (b) (c)

Figura 18 – (a) Inrush na Fase 1 (b) Inrush na Fase 2 (c) Inrush na Fase 3

3.3.2 Magnetização com Curto-Circuito no Primário


Foi simulado um curto-circuito monofásico, com resistência de 100Ω no primário da fase 1. A figura
19, a seguir mostra o resultado da simulação. O curto-circuito foi aplicado no instante 0.2 s e removido no
instante 0.4 s.

40
[A]
30

20

10

-10

-20

-30

-40
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 19 – Magnetização com curto-circuito monofásico no Primário da fase 1

Percebe-se que o comportamento das demais fases permaneceu quase inalterado, quando
comparado com o caso anterior. As figuras 20 e 21 ilustram a simulação de curto-circuito bifásico e trifásico
respectivamente.
300

[A]

200

100

-100

-200

-300
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 20 – Magnetização com Curto-circuito Bifásico nas fases 1 e 2 do Primário

350,0
[A]
262,5

175,0

87,5

0,0

-87,5

-175,0

-262,5

-350,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 21 – Magnetização com Curto-circuito Trifásico no Primário

3.3.3 Magnetização Curto-Circuito no Secundário


As mesmas situações de curto-circuito foram simuladas no secundário do transformador. As figuras
22, 23 e 24 ilustram as situações de curto monofásico, bifásico e trifásico respectivamente. Os curtos foram
simulados com impedância de curto de 100Ω.
3
[A]

-1

-2

-3
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 22 – Magnetização com Curto-circuito Monofásico no Secundário da Fase 1

40

[A]

25

10

-5

-20

-35

-50
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 23 – Magnetização com Curto-circuito Bifásico no Secundário das Fases 1 e 2


60

[A]

40

20

-20

-40

-60
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 24 – Magnetização com Curto-circuito Trifásico no Secundário

3.3.4 Magnetização com Carga Leve no Secundário


A última situação de magnetização simulada foi a magnetização na presença de carga leve no
secundário. Esta situação é pouco peculiar, tendo em vista que os operadores normalmente realizam o
chaveamento do transformador na rede com o secundário em aberto. No entanto, para fins didáticos foi
realizada a simulação dessa situação possível de ocorrer. A figura 25 ilustra o resultado dessa simulação.

7,0

[A]

4,4

1,8

-0,8

-3,4

-6,0
0,0 0,1 0,2 0,3 0,4 [s] 0,5
(f ile Exemplo2.pl4; x-v ar t) c:P01 -PN c:P02 -PN c:P03 -PN

Figura 25 – Magnetização com Carga Leve no Secundário


Bibliografia:
[1] Misti, Michel … [et al], Wavelets and their applications, Ed. ISTE Ltd, 2007.
[2] Weeks, Michael, Digital Signal Processing, Ed. Infinity Science Press LLC, 2007.
[3] Boggess, Albert and Narcowich, Francis J., A First Course in Wavelets with Fourier Analysis,
Ed. Prentice Hall, 2001.
[4] Machado, Raimundo Nonato das Mercês, Detecção, Classificação e Quantificação Automática
de Variações de Tensão em Sistemas de Energia Elétrica, Tese de Doutorado, Universidade
Federal do Pará, 2006.
[5] Suzuki, Kenji, ARTIFICIAL NEURAL NETWORKS - INDUSTRIAL AND CONTROL
ENGINEERING APPLICATIONS. Ed. InTech, 2011
[6] Mehrotra, Kishan, Mohan, Chilukuri K. and Ranka, Sanjay. Elements of Artificial Neural
Networks, Ed. The MIT Press, 1996.
[7] Oja, Erkki and Kaski, Samuel, Kohonen Maps, Ed. Elsevier 1999
[8] Kasabov, Nikola K., Foundations of Neural Networks, Fuzzy Systems, and Knowledge
Engineering, Ed. The MIT Press, 1998.
[9] Harlow, James H., Electric Power Transformer Engineering, Ed. CRC Press LLC, 2004.
[10] Kulkarni, S. V. and Khaparde, S. A., Transformer Engineering - Design and Practice, Ed.
Marcel Dekker, Inc, 2004.
[11] Kasztenny, B., Rosolowski, E., Saha, M. M. and Hillstrom, B. “A Self-organizing Fuzzy Logic
Based Protective Relay – An Application to Power Transformer Protection” IEEE Transactions on
Power Delivery, Vol. 12, No. 3, July 1997.
[12] Wu, H., Fu, C. H., Guo, H. and Chen, C. Z. “The Magnetic Inrush Current and Internal Fault
Types Recognition in Transformer Based on Probabilistic Neural Network” 2010 Sixth International
Conference on Natural Computation (ICNC 2010).
[13] Kohonen, T. “The Self-Organizing Map” PROCEEDINGS OF THE IEEE, VOL. 78, NO. 9,
SEPTEMBER 1990.
[14] Gómez-Morante, M. and Nicoletti, D. W. “A Wavelet-based Differential Transformer Protection”
IEEE Transactions on Power Delivery, Vol. 14, No. 4, October 1999.
[15] Hossam Eldin, A. A. and Refaey, M. A., “A novel algorithm for discrimination between inrush
current and internal faults in power transformer differential protection based on discrete wavelet
transform” Electric Power System Research (2010), doi:10.1016/j.epsr.2010.07.010.
[16] Mortazavi, H.and Khorashadi-Zadeh, H. “A New Inrush Restraint Algorithm for Transformer
Differential Relays Using Wavelet Transform” lnternational Conference on Power System
Technology - POWERCON 2004 Singapore, 21-24 November 2004.
[17] Rahmati, A. “An Adaptive Differential Relay for CT Saturation Based on Wavelet Transform”
2010 International Conference on Advances in Energy Engineering.
[18] Wilkinson, W. A. and Cox, M. D., “Discrete Wavelet Analysis of Power System Transients”
IEEE Transactions on Power Systems, Vol. 11, No. 4, November 1996.
[19] Tripathy, M., Maheshwari, R. P. and Verma, H. K. “Power Transformer Differential Protection
Based On Optimal Probabilistic Neural Network” IEEE TRANSACTIONS ON POWER DELIVERY,
VOL. 25, NO. 1, JANUARY 2010.
[20] Delshad, M. and Fani, B. “A New Method for Discriminating Between Internal Faults and
Inrush Current Conditions in Power Transformers Based on Neuro Fuzzy” POWERENG 2007,
April 12-14, 2007, Setubal, Portugal.

You might also like