Professional Documents
Culture Documents
0108
423
1
UEPG, Ponta Grossa, Brasil, fabianosferrari@gmail.com
2
UEPG, Ponta Grossa, Brasil, desouzapinto@gmail.com
Resumo: Novas técnicas como a entropia de transferên- mação mútua. Para um par de variáveis X e Y , podemos
cia nos permitem explorar direcionalidade e comportamentos visualizar a informação mútua (I(X; Y )) e a entropia condi-
dinâmicos a partir de propriedades globais, como a medida cional (H(X|Y ),H(Y |X)) a partir do diagrama de Venn,
do sistema. A partir de um modelo simples como dois mapas conforme a figura 1, [3].
de Bernoulli acoplados, podemos compará-los a dois sinais
correlacionados e identificar as características pertinentes a
diferentes configurações de acoplamento.
Palavras-chave: entropia, acoplamento, séries temporais
1. INTRODUCÃO
A coerência entre sistemas que evoluem no tempo pode
ser quantificada a partir da medida de informação. Um sis-
tema produz informação em uma taxa não-nula quando a
Figura 1 – Podemos ver pelo diagrama de Venn que parte das
série temporal evoluí de forma irregular com o tempo [1].
escolhas de uma variável influenciam a outra e que esta é uma
A irregularidade pode ser vista como uma sucessão de es- relação simétrica entre as variáveis.
colhas feitas pelo sistema de acordo com sua distribuição de
probabilidade.
A informação está relacionada com a quantidade de es- A informação mútua representa a quantidade de infor-
colhas. Pode-se determinar a informação produzida por mação que duas variáveis compartilham entre si:
umPsistema, a partir da entropia de Shannon H(X) =
− x p(x) log p(x), tal que p(x) = ρ(x)dx, onde p(x) rep-
resenta a probabilidade de uma dada posição da variável X
e ρ(x) representa sua densidade. A base do logaritmo de- I(X; Y ) = H(X) − H(X|Y ) (1)
termina a unidade usada para medir o número médio de in- I(X; Y ) = H(Y ) − H(Y |X) (2)
formação necessário para descrever a variável. A base 2 in- XX p(x, y)
dica que a informação está sendo medida em bits. Um bit de I(X; Y ) = p(x, y) log (3)
x y
p(x)p(y)
informação é a informação contida em um sistema quando
ele precisa fazer uma escolha entre dois eventos com mesma
probabilidade de ocorrência [2]. Embora a informação mútua seja uma quantidade capaz
Em um sistema composto por várias variáveis conectadas de determinar correlações entre duas ou mais variáveis, os
entre si, por alguma regra de acoplamento, então, existem resultados não são conclusivos com relação a direção de
configurações nas quais os eventos de uma variável influen- acoplamento e a dinâmica do sistema. Podemos classificar
ciam diretamente os eventos relativos a outra variável qual- a direção de acoplamento em unidirecional e bidirecional,
quer do sistema. Chamamos de entropia condicional, a infor- conforme as figuras 2,3,4.
mação contida em uma variável correlacionada com outra. A A entropia de transferência proposta por Schreiber [1],
quantidade de incerteza reduzida em uma variável, em con- nos permite determinar esta direção de acoplamento e ainda
sequência do acoplamento, é definida como sendo a infor- nos permite extrair informações sobre o comportamento
global do sistema, é definida como:
424
xn+1 − xn0 +1
1 X
p̂r (xn+1 , xn , yn ) = Θ r− xn − xn0 . (6)
N 0
n yn − yn0
5. CONCLUSÕES
Podemos claramente perceber que a entropia de transfer-
ência é uma ferramenta que nos permite determinar a direção
de acoplamento entre dois sinais, conhecendo ou não o mod-
elo matemático que os descreve. Embora exista uma grande
simetria nos resultados apresentados nas figuras 6,7 e 8 são
consequência da simplicidade do modelo escolhido, mas fica
evidente a partir da figura 5 que acoplamentos com valores
distintos de e δ produzem diferentes curvas de TX→Y e
TX←Y .
AGRADECIMENTOS
Agredeço a Capes pela concessão de bolsa, assim como
a Fundação Araucária e ao CNPq pelo suporte através dos
projetos desenvolvidos pelo GDNLSC. Agradeço a Rodrigo
Pereira e Romeu Szmoski pelas discussões que ajudaram no
desenvolvimento deste trabalho.
Referências
[1]DOI Thomas Schreiber. Measuring information transfer.
Physical Review Letters, 85:4, 2000.
[2] Warren Weaver Claude E. Shannon. The Mathematical