Professional Documents
Culture Documents
Transmisin de Datos
23 de septiembre 2013
Contenidos
Preguntas
Antecedentes
Teoremas de Shannon
Teoremas Shannon
Teorema de Codificacin de la Fuente (Primer Teorema de
Shannon).
Teorema de Codificacin del Canal (Segundo Teorema de
Shannon).
Informacin
Unidades de Informacin
1
loga (x) = logb (x)
logb (a)
1
I(E) = log2 bits
P (E)
1
I(E) = ln nats
P (E)
1
I(E) = logr unidades de orden r
P (E)
Fuente de Informacin
S = s1 , s2 , ..., sq
Informacin media
Entropa
Entropa: Ejemplo 1
Propiedades de la Entropa
log(q) H(S) 0
Velocidad de la Entropa
Redundancia de la Entropa
H(S)
R=1 Hmax , en donde:
H(S) y Hmax estn expresadas en la misma unidad (con la
misma base de algoritmo).
Para fuentes sin memoria con valores igualmente
probables, R = 0.
Entropa: Ejemplo 2
bits de informacin
I10seg = 4.45 10segundos = 44.5bits de inf.
segundo
Entropa: H(p)
La entropa es 0
cuando p = 0
p = 1. No existe
incertidumbre.
La entropa es
mxima cuando
p = 1/2. Cuando
p = 1/2 la
incertidumbre es Figure : H(p), funcin entropa
mxima.
Deber
Demostrar que:
H(S)
Hr (S) =
logr
En el lanzamiento de una moneda, qu pasa con la
cantidad de informacin promedio si:
1 Ambos lados de la moneda tienen igual probabilidad de
ocurrir?
2 Un lado de la moneda tiene el 90% de probabilidad de
ocurrir?
Propiedades de la Informacin.
Bibliografa