Matricula 118-4052 Asignatura Redes Y Comunicación Profesor Leonardo Torres Jaques 1. Algoritmos De Compresión Los algoritmos de compresión son formas que se elaboraron para economizar el uso de espacio de almacenamiento de información. Actualmente, el poder de procesamiento de los procesadores se incrementa más rápido que la capacidad de almacenamiento y es más veloz que los anchos de banda de las redes. Por lo tanto, para compensar esto es más común el procedimiento de reducir el tamaño de los datos al explotar el poder de procesamiento de los procesadores que incrementar la capacidad de almacenamiento y de transmisión de datos de los equipos. La compresión consiste en reducir el tamaño físico de bloques de información. Un compresor se vale de un algoritmo que se utiliza para optimizar los datos al tener en cuenta consideraciones apropiadas para el tipo de datos que se van a comprimir. Por lo tanto, es necesario un descompresor para reconstruir los datos originales por medio de un algoritmo opuesto al que se utiliza para la compresión. 2. Tipos básicos de algoritmos de compresión Algoritmo De Comprensión Sin Perdida. a cualquier procedimiento de codificación que tenga como objetivo representar cierta cantidad de información utilizando u ocupando un espacio menor, siendo posible una reconstrucción exacta de los datos originales. Es decir, la compresión sin pérdidas engloba a aquellas técnicas que garanticen generar un duplicado exacto del flujo de datos de entrada después de un ciclo de compresión / expansión. Por esta razón es utilizada para comprimir archivos que contienen datos que no pueden ser degradados o perdidos, como pueden ser documentos de texto, imágenes y sonido. Algoritmo de comprensión con perdida. Son técnicas que reducen el tamaño de archivo al descartar la información menos importante. A nadie le gusta perder información, pero algunos tipos de archivos son tan grandes que no hay suficiente espacio para guardar todos los datos originales; y además no necesitamos todos esos datos en primer lugar. Esto es a menudo el caso con fotos, videos y grabaciones de audio: archivos que intentan capturar la hermosa complejidad del mundo en el que vivimos. Las computadoras pueden capturar una cantidad increíble de detalle en una foto, pero ¿cuánto de ese detalle pueden realmente percibir los humanos? Resulta que hay muchos detalles que podemos eliminar. 3. La compresión simétrica y asimétrica Se pueden distinguir la compresión simétrica y asimétrica: En el caso de la compresión simétrica, se utiliza el mismo método para comprimir y para descomprimir los datos. Por lo tanto, cada operación requiere la misma cantidad de trabajo. En general, se utiliza este tipo de compresión en la transmisión de datos La compresión asimétrica requiere más trabajo para una de las dos operaciones. Es frecuente buscar algoritmos para los cuales la compresión es más lenta que la descompresión. Los algoritmos que realizan la compresión de datos con más rapidez que la descompresión pueden ser necesarios cuando se trabaja con archivos de datos a los cuales se accede con muy poca frecuencia (por razones de seguridad, por ejemplo), ya que esto crea archivos compactos. 4. La codificación adaptativa, la semi-adaptativa y la no adaptativa. La codificación adaptativa se refiere a las variantes de los métodos de codificación de entropía de compresión de datos sin pérdidas. Son particularmente adecuados para la transmisión de datos, ya que se adaptan a los cambios localizados en las características de los datos y no requieren un primer paso sobre los datos para calcular un modelo de probabilidad. Un codificador semi adaptativo crea un diccionario según los datos que va a comprimir: crea el diccionario mientras analiza el archivo y después lo comprime. Algunos algoritmos de compresión están basados en diccionarios para un tipo específico de datos: éstos son codificadores no adaptativos. La repetición de letras en un archivo de texto, por ejemplo, depende del idioma en el que ese texto esté escrito.