Clase 110315
de datos.
Muchas aplicaciones multimedia requieren
volúmenes de información importantes:
CD-ROM: 648 MB (700MB)
72’ sonido estéreo.
30’’ de vídeo (estudio TV).
Una película de 90’ ocuparía 120 GB.
Una foto (35 mm) a resolución 2000x2000 ocuparía
10MB.
Un canal de HDTV requiere un ancho de banda de
2Gbps.
Por esta razón se emplean técnicas de
compresiónque permitan reducir el volumen de
información
1
Introducción a la compresión
de
datos.
Un sistema de compresión consta de:
Codificador y decodificador
Codificador y decodificador pueden ser:
Asimétricos
El codificador suele ser más complejo y lento que el
decodificador (Ej.: Vídeo por demanda)
Simétricos
Costo equipo computacional similar (Ej:
Videoconferencia). H264
Con pérdidas(lossy compression) o irreversible
Adecuada para medios continuos (audio y vídeo).
Mayores tasas de compresión.
Sin pérdidas (lossless compression) o reversible:
Ficheros de datos, imágenes médicas, etc.
2
Factores en el diseño de un
codificador.
Calidad de la señal
- BER (Bit Error Ratio)
- SNR (Signal/Noise)
- MOS (Mean Opinion Score)
Eficiencia
- Tasa de compresión
Complejidad
-Espacio de memoria
- Potencia (mW)
- Operaciones/Seg.
3
Retardo
Dos clases de técnicas de
compresión.
Entropy encoding
Codifica los datos sin necesidad de conocer la
naturaleza de estos.
De propósito general (todo tipo de datos).
Son técnicas de compresión sin pérdidas.
Ejemplos: Statistical (Huffman, aritmética,etc.)
Source encoding
Codifica los datos basándose en las características ypropiedades de estos.
Suelen ser técnicas de compresión con pérdidas.
Se obtienen tasas de compresión elevadas.
Codificadores/decodificadores de propósito específico.
Ejemplos:
4
vector quantization
Codificación basada en la
entropía.
Entropía:
Valor medio de información de un conjunto de
símbolos procedente de una fuente de información
(es imposible de medir en la práctica).
1
H S pi log 2
i
pi
(pi = probabilidad del símbolo i)
Por ejemplo: Sea S = {4,5,6,7,8,9}, en donde la
probabilidad de cada símbolo es la misma (1/6).
1
H S 6 log 2 6 2.585
6
Según la teoría de la información (Shannon), esta
5
fuente no puede ser codificada (sin pérdidas) con
menos de 2.585 bits por símbolo.
Statistical encoding
Trata de identificar los símbolos (patrones de
bits)que más se repiten en el conjunto de
datos de entrada.
Se codifican con pocos bits los símbolos más
frecuentes, mientras que los menos
frecuentes son codificados con más bits.
Ejemplos:
Codificación Morse
E: ‘•’ y Q:’--•-’
Codificación Huffman.
Codificación aritmética.
6
Run-length encoding
Se basa en detectar las repeticiones de
símbolos (bits, números, etc) en los datos acodificar.
Ejemplo:
Datos a codificar (42): 3150000000376541111111127000000000000003
Datos codificados (21):
315A0737654A1827A0143
Tasa de compresión: 50%
Este
Audio: Tiras de ceros que representan
silencios.
Vídeo e imagen: Fondos del mismo color
(paredes, cielos, etc.)
7
patrón es frecuente en multimedia:
Codificación basada en la
fuente.
Se basan fundamentalmente en las
propiedades dela fuente de datos a codificar.
Suelen tolerar pérdidas en la codificación
(lossy codecs) que perceptualmente pasan
inadvertidas para el usuario.
Son codificadores de propósito específico.
Por término general obtienen mayores
prestaciones que los codificadores basados
en la entropía.
8
Codificación Diferencial
Se basa en la codificación de las diferencias
entre dos símbolos consecutivos.Ciertos tipos de datos tienen la propiedad de
similitud entre símbolos consecutivos:
Señal de Audio, vídeo, imágenes, etc.
Esto permite codificar con pocos bits las
diferencias.
Ejemplo:
DPCM (Differential Pulse Code Modulation)
Codificación con pérdida.
9
Transform encoding
Se basa en transformar el dominio (Ej.: del
temporal al de la frecuencia) de los datos de
entrada (Ej.:...
Regístrate para leer el documento completo.