Welcome to Scribd, the world's digital library. Read, publish, and share books and documents. See more
Download
Standard view
Full view
of .
Save to My Library
Look up keyword
Like this
53Activity
0 of .
Results for:
No results containing your search query
P. 1
Resumen Teoría Matemática de La Información

Resumen Teoría Matemática de La Información

Ratings:

5.0

(7)
|Views: 10,512 |Likes:
Published by r4ul90

More info:

Published by: r4ul90 on Feb 10, 2009
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX or read online from Scribd
See more
See less

07/09/2013

 
Resumen Teoría Matemática De LaComunicación
Es la teoría relacionada con las leyes matemáticas que rige la transmisión yel procesamiento de la información. Más concretamente, la teoría de lainformación se ocupa de la medición de la información y de larepresentación de la misma (como, por ejemplo, su codificación) y de lacapacidad de los sistemas de comunicación para transmitir y procesarinformación.La codificación puede referirse tanto a la transformación de voz o imagen enseñales eléctricas o electromagnéticas, como al cifrado de mensajes paraasegurar su privacidad.La teoría de la información fue desarrollada inicialmente, en 1948, por elingeniero electrónico estadounidense Claude E. Shannon, en su artículo, AMathematical Theory of Communication (Teoría matemática de lacomunicación). La necesidad de una base teórica para la tecnología de lacomunicación surgió del aumento de la complejidad y de la masificación delas vías de comunicación, tales como el teléfono, las redes de teletipo y lossistemas de comunicación por radio. La teoría de la información tambiénabarca todas las restantes formas de transmisión y almacenamiento deinformación, incluyendo la televisión y los impulsos eléctricos que setransmiten en las computadoras y en la grabacn óptica de datos eimágenes. El término información se refiere a los mensajes transmitidos: vozo música transmitida por teléfono o radio, imágenes transmitidas porsistemas de televisión, información digital en sistemas y redes decomputadoras, e incluso a los impulsos nerviosos en organismos vivientes.De forma más general, la teoría de la información ha sido aplicada encampos tan diversos como la cibernética, la criptografía, la lingüística, lapsicología y la estadística.El tipo de sistema de comunicación más estudiado consta de varioscomponentes. El primero es una fuente de información (por ejemplo, unapersona hablando) que produce un mensaje o informacn que setransmitida. El segundo es un transmisor (como, por ejemplo, un teléfono yun amplificador, o un micrófono y un transmisor de radio) que convierte elmensaje en señales electrónicas o electromagnéticas. Estas señales sontransmitidas a través de un canal o medio, que es el tercer componente,como puede ser un cable o la atmósfera. Este canal es especialmentesusceptible a interferencias procedentes de otras fuentes, que distorsionany degradan la señal. (Algunos ejemplos de interferencias, conocidas comoruido, incluyen la estática en la recepción de radios y teléfonos, y la nieveen la recepción de imágenes televisivas). El cuarto componente es elreceptor, como por ejemplo el de radio, que transforma de nuevo la señalrecibida en el mensaje original. El último componente es el destinatario,como por ejemplo una persona escuchando el mensaje.Dos de las principales preocupaciones en la teoría de la información son lareducción de errores por interferencias en los sistema de comunicación, y eluso más eficiente de la capacidad total del canal.Un concepto fundamental en la teoría de la información es que lacantidad de información contenida en un mensaje es un valor matemáticobien definido y medible. El término cantidad no se refiere a la cuantía dedatos, sino a la probabilidad de que un mensaje, dentro de un conjunto demensajes posibles, sea recibido. En lo que se refiere a la cantidad deinformación, el valor s alto se le asigna al mensaje que menos
 
probabilidades tiene de ser recibido. Si se sabe con certeza que un mensajeva a ser recibido, su cantidad de información es 0. Si, por ejemplo, se lanzauna moneda al aire, el mensaje conjunto cara o cruz que describe elresultado, no tiene cantidad de información. Sin embargo, los dos mensajespor separado cara o cruz tienen probabilidades iguales de valor un medio.Para relacionar la cantidad de información (I) con la probabilidad, Shannonpresentó la siguiente fórmula:I = log21/pDonde p es la probabilidad del mensaje que se transmite y log2 es ellogaritmo de 1/p en base 2. (log2 de un número dado X es el exponente Y alque tiene que ser elevado el número 2 para obtener dicho número X. Porejemplo, log2 de 8 = 3, porque 23 = 8). Utilizando esta fórmula, obtenemosque los mensajes cara y cruz tienen una cantidad de información de log22 =1.La cantidad de información de un mensaje puede ser entendida como elnúmero de símbolos posibles que representan el mensaje. En el ejemploanterior, si cruz está representado por un 0 y cara por un 1, sólo hay unaforma de representar el mensaje: 0 o 1. El 0 y el 1 son los dígitos delsistema binario (véase Sistema numérico), y la elección entre estos dossímbolos corresponde a la llamada unidad de información binaria o bit. Si selanza una moneda tres veces seguidas, los ocho resultados (o mensajes)igualmente probables pueden ser representados como000,001,010,011,100,101,110 o 111. Estos mensajes corresponden a losnúmeros 0,1,...7 escritos en notación binaria. La probabilidad de cadamensaje es de un octavo, y su cantidad de información es log21 ˆ = 3, quees el número de bits que se necesitan para representar cada mensaje.En la mayoría de las aplicaciones prácticas, hay que elegir entremensajes que tienen diferentes probabilidades de ser enviados. El términoentropía ha sido tomado prestado de la termodinámica, para designar lacantidad de información media de estos mensajes. La entropía puede serintuitivamente entendida como el grado de desorden en un sistema. En lateoría de la información la entropía de un mensaje es igual a su cantidad deinformación media. Si en un conjunto de mensajes, sus probabilidades soniguales, la fórmula para calcular la entropía total sería: H = log2N, donde Nes el número de mensajes posibles en el conjunto.Si se transmiten mensajes que están formados por combinacionesaleatorias de las 26 letras del alfabeto inglés, el espacio en blanco y cincosignos de puntuación, y si suponemos que la probabilidad de cada mensajees la misma, la entropía sea: H = log232 = 5. Esto significa que senecesitan 5 bits para codificar cada carácter o mensaje: 00000, 00001,00010, 11111. Una transmisn y almacenamiento eficiente de lainformación exige la reducción del mero de bits utilizados en sucodificación. Esto es posible cuando se codifican textos en español, porquela colocación de las letras no es aleatoria. Así, por ejemplo, la probabilidadde que la letra que suceda a la secuencia información sea una n es muyalta.Se puede demostrar que la entropía del español normal escrito esaproximadamente de un bit por palabra. Esto demuestra que la lenguaespañola (como cualquier otra) tiene una gran cantidad de redundanciaincorporada, que se denomina redundancia natural. Esta redundanciapermite, por ejemplo, a una persona entender mensajes en los cuales faltanvocales, así como descifrar escritura poco legible. En los sistemas decomunicación modernos, se añade redundancia artificial a la codificación demensajes, para reducir errores en la transmisión de los mismos.
()

Activity (53)

You've already reviewed this. Edit your review.
1 hundred reads
1 thousand reads
Gisela Caranqui liked this
Adan Gonzalez liked this
Maite Sánchez liked this
lindoooo me encantaaaaaaaa..!!!!!!!!!!!
Luis J' Mrtnz liked this
edil183 liked this

You're Reading a Free Preview

Download
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->