Compresor utilizando el Algoritmo de Huffmann
CODIFICADORES USANDO ÁRBOLES BINARIOS DE BÚSQUEDA: ALGORITMO DE HUFFMAN
Tesillo Mita, Wilberth
email: xxxxxxx@hotmail.com
Resumen – En ciencias de la computación y teoría de la información, la codificación Huffman es un algoritmo usado para compresión de datos. El término se refiere al uso de una tabla de códigos de longitud variable para codificar un determinado símbolo(como puede ser un carácter en un archivo), donde la tabla ha sido rellenada de una manera específica basándose en la probabilidad estimada de aparición de cada posible valor de dicho símbolo. El algoritmo de Huffman trata de un algoritmo que puede ser usado para compresión o encriptación de datos. Este algoritmo se basa en asignar códigos de distinta longitud de bits a cada uno de los caracteresde un fichero. Si se asignan códigos más cortos a los caracteres que aparecen más a menudo se consigue una compresión del fichero. Esta compresión es mayor cuando la variedad de caracteres diferentes que aparecen es menor.
Palabras Clave: Codificador, Arboles Binarios, Arboles Binarios de Búsqueda, Algoritmo de Huffman.
Abstract – In computer science and information theory, Huffman coding isan algorithm used for compression of data. The term refers in the use of a variable length’s code’s table to encode a given symbol (such as a character in a file) where the table has been filled in a specific way based on the estimated probability of occurrence for each possible value of the symbol. Huffman algorithm is an algorithm that can be used for compression or data encryption. Thisalgorithm is based on assigning codes to different length of bit to each character of a file. If shorter codes are assigned to the characters that appear most often get a file compression. This compression is greatest when the variety of different characters that appear less.
Key Words: Encoder, binary trees, binary search trees, Huffman Algorithm.
INTRODUCCIÓN.
El trabajo aquí expuesto tiene porobjeto ser presentado ante la Universidad Nacional Jorge Basadre Grohmann, para optar el Título Profesional de Ingeniero en Informática y Sistemas.
En todas las áreas la computación se ha adquirido como una herramienta de apoyo en la investigación e innovación, debido a que permite simular casi cualquier fenómeno natural mientras esté bien comprendido por el hombre. La evolución de éstas máquinasy el incremento exponencial de la velocidad de sus procesadores ha sido protagónico en el desarrollo del resto de las ciencias.
Sin embargo, existen aún aplicaciones que requieren procesar una gran cantidad de información y se obtienen resultados en tiempos relativamente prolongados, sin embargo existen métodos para incrementar las capacidades de cómputo mediante la utilización de variasmáquinas personales agrupadas bajo un protocolo de interconexión de red de alta velocidad y configuradas para trabajar en conjunto con un fin determinado, dando solución a los problemas más exigentes de la actualidad.
El volumen de datos manejados por los usuarios y los centros de investigación es cada día mayor, el número de usuarios y servicios de internet crece significativamente, las redes que loconforman podrían colapsar en los próximos años para algunos países desarrollados, en contraste Internet 2 e IPv6 son soluciones que están aplicándose actualmente, sin embargo, debido al creciente número de datos transportados siempre existen los colapsos y pérdida en los datos.
Los algoritmos de compresión han sido utilizados como base para algunas investigaciones, además de su comercializaciónadquirida por las principales ventajas, como el ahorro de espacio en los diferentes medios de almacenamiento y para disminuir la cantidad de datos a transmitir en redes.
El propósito del presente trabajo de investigación es diseñar e implementar una versión distribuida del algoritmo de compresión de Huffman.
MATERIALES Y MÉTODOS.
1. Algoritmo de Huffman.
El algoritmo de Huffman es un...
Regístrate para leer el documento completo.