You are on page 1of 3

http://dx.doi.org/10.5540/DINCON.2011.001.1.

0108

423

DIREÇÃO DE ACOPLAMENTO EM SINAIS CORRELACIONADOS


Fabiano Alan Serafim Ferrari1 and Sandro Ely de Souza Pinto2

1
UEPG, Ponta Grossa, Brasil, fabianosferrari@gmail.com
2
UEPG, Ponta Grossa, Brasil, desouzapinto@gmail.com

Resumo: Novas técnicas como a entropia de transferên- mação mútua. Para um par de variáveis X e Y , podemos
cia nos permitem explorar direcionalidade e comportamentos visualizar a informação mútua (I(X; Y )) e a entropia condi-
dinâmicos a partir de propriedades globais, como a medida cional (H(X|Y ),H(Y |X)) a partir do diagrama de Venn,
do sistema. A partir de um modelo simples como dois mapas conforme a figura 1, [3].
de Bernoulli acoplados, podemos compará-los a dois sinais
correlacionados e identificar as características pertinentes a
diferentes configurações de acoplamento.
Palavras-chave: entropia, acoplamento, séries temporais

1. INTRODUCÃO
A coerência entre sistemas que evoluem no tempo pode
ser quantificada a partir da medida de informação. Um sis-
tema produz informação em uma taxa não-nula quando a
Figura 1 – Podemos ver pelo diagrama de Venn que parte das
série temporal evoluí de forma irregular com o tempo [1].
escolhas de uma variável influenciam a outra e que esta é uma
A irregularidade pode ser vista como uma sucessão de es- relação simétrica entre as variáveis.
colhas feitas pelo sistema de acordo com sua distribuição de
probabilidade.
A informação está relacionada com a quantidade de es- A informação mútua representa a quantidade de infor-
colhas. Pode-se determinar a informação produzida por mação que duas variáveis compartilham entre si:
umPsistema, a partir da entropia de Shannon H(X) =
− x p(x) log p(x), tal que p(x) = ρ(x)dx, onde p(x) rep-
resenta a probabilidade de uma dada posição da variável X
e ρ(x) representa sua densidade. A base do logaritmo de- I(X; Y ) = H(X) − H(X|Y ) (1)
termina a unidade usada para medir o número médio de in- I(X; Y ) = H(Y ) − H(Y |X) (2)
formação necessário para descrever a variável. A base 2 in- XX p(x, y)
dica que a informação está sendo medida em bits. Um bit de I(X; Y ) = p(x, y) log (3)
x y
p(x)p(y)
informação é a informação contida em um sistema quando
ele precisa fazer uma escolha entre dois eventos com mesma
probabilidade de ocorrência [2]. Embora a informação mútua seja uma quantidade capaz
Em um sistema composto por várias variáveis conectadas de determinar correlações entre duas ou mais variáveis, os
entre si, por alguma regra de acoplamento, então, existem resultados não são conclusivos com relação a direção de
configurações nas quais os eventos de uma variável influen- acoplamento e a dinâmica do sistema. Podemos classificar
ciam diretamente os eventos relativos a outra variável qual- a direção de acoplamento em unidirecional e bidirecional,
quer do sistema. Chamamos de entropia condicional, a infor- conforme as figuras 2,3,4.
mação contida em uma variável correlacionada com outra. A A entropia de transferência proposta por Schreiber [1],
quantidade de incerteza reduzida em uma variável, em con- nos permite determinar esta direção de acoplamento e ainda
sequência do acoplamento, é definida como sendo a infor- nos permite extrair informações sobre o comportamento
global do sistema, é definida como:
424

xn+1 = f (yn + (1 − )xn ) (8)


yn+1 = f (δyn + (1 − δ)xn ) (9)
Figura 2 – Caso 1: acoplamento bidirecional
4. RESULTADOS E DISCUSSÕES
A entropia de transferência de um panorama geral é apre-
sentada na figura 5. O modelo apresentado aqui para acopla-
mentos fortes sofre um fenômeno conhecido com sincroniza-
ção de caos. Sempre que existe sincronização de caos ambas
Figura 3 – Caso 2: acoplamento unidirecional X → Y as variáveis apresentam o mesmo comportamento dinâmico,
basicamente limn→∞ |xn − yn | = 0. Quando duas variáveis
sincronizam o efeito é igual ao desacoplamento entre elas. A
entropia de transferência em caso de sincronização apresenta
(k) (l) valor nulo, o mesmo do caso desacoplado.
X p(xn+1 |xn , yn )
TX→Y = p(xn+1 , x(k) (l)
n , yn ) log (k)
(4)
p(xn+1 |xn )
(k) (l)
X p(yn+1 |yn , xn )
TY →X = p(yn+1 , yn(k) , x(l)
n ) log (k)
(5)
p(yn+1 |yn )
Em aplicações envolvendo séries temporiais as transições
de probabilidade são expressas pela probabilidade conjunta e
podem ser determinadas através do uso de estimadores. Um
dos estimadores que pode ser usado é o estimador de kernel,
que pode ser expresso como [4]:

 
xn+1 − xn0 +1
1 X 
p̂r (xn+1 , xn , yn ) = Θ r− xn − xn0  . (6)
N 0
n yn − yn0

onde foi utilizado o passo de kernel θ(x > 0) = 1 e θ(x ≤


0) = 0.

2. PROPÓSITOS Figura 5 – Entropia de transferência para o caso geral

Utilizar a entropia da transferência como uma ferramenta


capaz de determinar a correlação entre dois sinais. Demon- Quando existe um acoplamento bidirecional entre dois
strar que a entropia de transferência é capaz de não apenas sinais, então, temos um caso similar ao do nosso modelo pro-
demonstrar a correlação entre sinais como também indicar o posto com valores não nulos para os parâmetros de acopla-
tipo de direcionalidade existente entre eles. mento  e δ, podemos vereficar então que ocorre transferên-
cia de informação em ambos os sentidos pela figura 6.
3. MÉTODOS Na existência de acoplamento entre dois sinais eles po-
dem ser tanto no sentido X → Y como Y → X, o caso 2
Para produzir duas séries temporais utilizaremos o mapa pode ser observado a partir da figura 7.
de Bernoulli, descrito por [5]: O caso 3 conforme podemos ver na figura 8, é similar ao
caso 2. Esta similaridade é consequência de ambos os sinais
serem descritos pela mesma função neste modelo.

2x se 0 ≤ x ≤ 0.5
f (x) = (7)
2x − 1 se 0.5 < x ≤ 1

Acoplados de acordo com a seguinte regra de acopla-


mento:

Figura 4 – Caso 3: acoplamento unidirecional X ← Y


425

Figura 6 – Entropia de transferência caso 1 Figura 8 – Entropia de transferência caso 3

Theory of Communication. 1963.


[3]DOI Joy A. Thomas Thomas M. Cover. Elements of Infor-
mation Theory. John Wiley and Sons, Inc., 2006.
[4]DOI C. Schaffrath P. Grassberger, T. Schreiber. Nonlinear
time sequence analysis. Int. J. Bifurcation Chaoss Appl.
Sci. Eng., 1:521, 1991.
[5]LI James A. Yorke Kathleen T. Aligood, Tim D. Sauer.
Chaos an Introduction to Dynamical Systems. Springer,
1996.

Figura 7 – Entropia de transferência caso 2

5. CONCLUSÕES
Podemos claramente perceber que a entropia de transfer-
ência é uma ferramenta que nos permite determinar a direção
de acoplamento entre dois sinais, conhecendo ou não o mod-
elo matemático que os descreve. Embora exista uma grande
simetria nos resultados apresentados nas figuras 6,7 e 8 são
consequência da simplicidade do modelo escolhido, mas fica
evidente a partir da figura 5 que acoplamentos com valores
distintos de  e δ produzem diferentes curvas de TX→Y e
TX←Y .

AGRADECIMENTOS
Agredeço a Capes pela concessão de bolsa, assim como
a Fundação Araucária e ao CNPq pelo suporte através dos
projetos desenvolvidos pelo GDNLSC. Agradeço a Rodrigo
Pereira e Romeu Szmoski pelas discussões que ajudaram no
desenvolvimento deste trabalho.

Referências
[1]DOI Thomas Schreiber. Measuring information transfer.
Physical Review Letters, 85:4, 2000.
[2] Warren Weaver Claude E. Shannon. The Mathematical

You might also like