Professional Documents
Culture Documents
H (X ,Y )
H ( X | Y ) I ( X ;Y )
H (Y | X )
H (Y )
H (X )
H(X,Y)
H(X)
H(Y)
H(X|Y)
I(Y;X)
H(Y|X)
etc
H (Y ) H (Y | X )
Ejemplo:
Dadas dos variables aleatorias discretas (X,Y) que pueden asumir 4 valores distintos
cada una, conocemos la densidad Conjunta (en general puede ser una matriz
rectangular) :
X
p ( x, y )
1 1
8 16
1 1
16 8
1 1
16 16
1
0
4
1
32
1
32
1
16
Marginales
p ( x); p( y )
1
32
1
32
1
16
Condicionales
p ( y | x); p ( x | y )
Se puede ver claramente que la suma de todos los valores da 1, como debe de ser:
4
p( x, y ) 2 8 4 6 16 4 32 3 0 1
i
i 1 j 1
1 1 1 1
, , ,
2 4 8 8
1 1 1 1
, , ,
4 4 4 4
j 1
p ( x, y )
p( y )
p( y | x)
p ( x, y )
p( x)
1 1 1 1
, , ,
2 4 8 8
1
2
1
p( x | y) 4
1
4
1
1
4
1
2
1
4
0
1
8
1
8
1
4
0
1
8
1
8
1
1
0
p ( y | x ); p ( x | y )
H(X ) H
1
1 1 1 1
1
, , , 4 log 2 2 bits
4
4 4 4 4
4
H (Y ) H
i 1
j 1
H ( X | Y ) p( yi ) H ( X | yi ) ; H (Y | X ) p ( x j ) H (Y | x j )
Las H ( X | yi ) y las H (Y | x j ) son respectivamente las entropas de las filas de
p ( x | y ) y las entropas de las columnas de p ( y | x) :
1
2
1
p( x | y) 4
1
4
1
1
4
1
2
1
4
0
1
8
1
8
1
4
0
1
8
1
8
1
1
0
H ( X | y 1) 7 / 4
H ( X | y 2) 7 / 4
H ( X | y 3) 2
H ( X | y 4) 0
1 7 1 7 1
1
11
2 0 bits
4 4 4 4 4
4
8
13
bits
8
3
bits
8
log 2
7
3 14 16 3 27
2
bits
4
8
8
8
Observaciones importantes:
1. Podemos notar como, por ejemplo, H ( X | y 4) 0 es menor de H ( X ) , pero
H ( X | y 3) 2 es mayor que H ( X ) !! Parece increble: en unos caso
aprender informacin de la variable Y nos hace incrementar la incertidumbre
sobre X!!! Pero promediando Y nos aporta informacin sobre X (siendo no
independientes), de hecho:
H (X | Y ) H (X )
10
Entropa igual
Varianza distinta
y1
x1
x2
....
yj
....
p ( y | x ) matriz NM
de canal
yN
xM
C max I ( X ; Y )
p( x)
Vamos a ver los pasos que generalmente habr que hacer para calcular la capacidad, en
los problemas tpicos. Empezamos diciendo que la formula que suele ser ms til para
expresar la informacin mutua es:
I ( X ; Y ) H (Y ) H (Y | X )
Esto no quiere decir que haya que utilizar siempre esta. Los pasos para en clculo
sern:
1) Hallar la matriz p ( y | x ) equivalente al grafico del canal.
x1
x2
y1
....
yj
.
xM
....
yN
p ( y | x) C1 C2 ... CM
Donde con
Ci
valor1
valor
2
..
que
valorN
componen las matrices; por definicin de la matriz p ( y | x ) , las sumas de los valores a
lo largo de cada columna dar 1.
2) Calcular H (Y ) ; esto necesita de dos pasos: primero hay que calcular p ( y ) y
luego la Entropa. En formula:
p( y ) C1 p( x 1) C 2 p( x 2) ... C M p ( x M ) CY
y luego: H ( y ) H (CY )
Es decir para hallar p ( y ) desde p ( y | x ) , hay que promediar las columnas a travs de
la densidad p ( x) ; el resultado ser un vector columna CY (cuyos elementos tendrn
que sumar 1, por construccin) que representa p ( y ) . As que se podr calcular la
entropa utilizando la definicin.
3) Calcular H (Y | X ) ; tambin en este caso necesitaramos 2 pasos: calcular las
entropas de cada columna C i y luego promediar. Juntando los dos pasos, podemos
escribir en formula:
H (Y | X ) H C1 p( x 1) H C 2 p( x 2) ... H C M p( x M )
Es decir: respecto al punto precedente, aqu primero calculamos las entropas de las
columnas y luego promediamos. Antes para hallar H (Y ) , hemos promediado y luego
calculado la entropa.
4) Como tememos H (Y ) y H (Y | X ) , tenemos tambin:
I ( X ; Y ) H (Y ) H (Y | X )
ahora, nos tocar maximizarla segn algn parmetro, para hallar C.
Para que se entienda mejor, vamos a hacer un ejemplo:
p x1
1 2 p x2
p x
3
y1
1
1
1
y2
1 0
1 0 1
p( y | x)
1 0
1 ; 2;CCC 3
1 0 1
Vamos a calcular p ( y ) :
p( y ) CY C1 p( x 1) C 2 p( x 2) ... C M p( x M )
1 0 p(12)(2p
p(y)CY p (12)p
1 0 1 ()p(2)p
p( y |
x ); p ( x |
y)
H C1 log 2 ( ) (1 ) log 2 (1 )
H C2 0
H C3 0
H Y | X log 2 ( ) (1 ) log 2 (1 ) p
As que la informacin mutua ser:
I ( X ; Y ) H (Y ) H (Y | X )
Por ejemplo:
2/3
x1
y1
1/ 3
1/ 3
x2
y2
y3
2/3
2/3 0
p ( y | x) 1 / 3 1 / 3
0 2 / 3
p( y
i 1
M
p( y
j 1
| x j ) 1
x j
| xj) c
y i
p( y
j i 1
| x j ) 1 1 .... 1 M
j 1
p( y
| x j ) c c .... c N c
N
Como se trata se las mismas sumatorias, tiene que dar el mismo resultado:
M N c
M num. entradas
N
num. salidas
I ( X ; Y ) H (Y ) H (Y | X ) H (Y ) p ( x j ) H (Y | x j )
j 1
j 1
j 1
I ( X ; Y ) H (Y ) p( x j ) H (C j ) H (Y ) H (Columna ) p ( x j ) H (Y ) H (Columna ) 1
Donde hemos aprovechado el hecho que cada columna representa una misma densidad
(en le caso de canales simtricos):
H (C1 ) H (C 2 ) ... H (C j ) ... H (C M ) H (Columna )
p ( y ) p( y | x j ) p ( x j )
j 1
Sabemos, adems, que en mximo valor que puede tomar H (Y ) es log 2 N , cuando la
p ( y ) es una densidad uniforme. Ahora, necesitamos de una observacin ms:
Observacin IMPORTANTE: Para canales dbilmente simtricos y simtricos, la
densidad de las salidas p ( y ) ser uniforme solo si lo ser la densidad de las entradas
p (x) .
Demostramos esta observacin; si p( x) 1 / M :
p ( y ) p( y | x j )
j 1
1
1 M
1
1 M
1
p( y | x j ) c
M M j 1
M
M N N
c
Donde la sumatoria a lo largo de las filas es igual a c por definicin de canal dbilmente
M
simtricos ( p( y | x j ) c ).
j 1
x2
y1
y2
y3
1 0
p ( y | x)
0 1
Lo que NO podemos asegurar ahora es que haya una densidad de las entradas p (x) que
genere una densidad uniforme de las salidas p ( y ) . As que maximizando H (Y ) , en
general, ser distinto del valor log 2 N . De hecho, suponiendo p ( x) ( p,1 p )
encontramos:
p ( y ) ((1 ) p, , (1 )(1 p))
Que no podremos forzar a ser uniforme para cualquier valor de , porque la
probabilidad p ( y 2) no depende de la distribucin de las entradas. Lo mejor que
podemos hacer es igualar el primer y el ltimo valor:
(1 ) p (1 )(1 p )
1
2
El hecho que nos encontremos otra vez con una densidad uniforme a la entrada, poda
ser predicho mirando la simetra geomtrica del grafico de canal.
CANALES EN PARALELO:
C1
C2
Vale la relacin:
x2
y1
y2
En este caso, podemos enviar 2 bits (uno por cada entrada) sin cometer ningn fallo en
recepcin; es decir la capacidad ser C=1. Otro ejemplo:
x1
y1
x2
y2
En este caso, podemos inmediatamente afirmar que C 1 ; vamos a ver ahora este
caso:
1/ 2
x1
1/ 2
x1
y1
1/ 2
1/ 2
1/ 2
x2
y1
y2
y2
1/ 2
x3
1/ 2
1/ 2
x3
y3
1/ 2
x2
y3
1/ 2
1/ 2
y4
y4
1/ 2
Veo que, se utilizo solo 2 entradas, no me equivoco nunca! Con todas las probabilidades
de transicin a 1/2 nuestra observacin no lleva directamente a hallar la capacidad:
2C 2
C 1
p( y | x); p(x | y)
y1
1 p1
x2
C 1
1 p4
1
y1
x2
y2
1 p2
x3
x1
p2
y3
y4
x2
p3
y3
1 p3
p4
y4
C2
2 2 4 numero entradas