Clase 110315

Páginas: 8 (1833 palabras) Publicado: 7 de abril de 2015
Introducción a la compresión
de datos.
Muchas aplicaciones multimedia requieren

volúmenes de información importantes:
CD-ROM: 648 MB (700MB)
 72’ sonido estéreo.
 30’’ de vídeo (estudio TV).

Una película de 90’ ocuparía 120 GB.
Una foto (35 mm) a resolución 2000x2000 ocuparía

10MB.
Un canal de HDTV requiere un ancho de banda de
2Gbps.

Por esta razón se emplean técnicas de

compresiónque permitan reducir el volumen de
información

1

Introducción a la compresión
de
datos.

Un sistema de compresión consta de:
Codificador y decodificador

Codificador y decodificador pueden ser:
Asimétricos
 El codificador suele ser más complejo y lento que el

decodificador (Ej.: Vídeo por demanda)
Simétricos
 Costo equipo computacional similar (Ej:

Videoconferencia). H264
Con pérdidas(lossy compression) o irreversible
 Adecuada para medios continuos (audio y vídeo).
 Mayores tasas de compresión.

Sin pérdidas (lossless compression) o reversible:
 Ficheros de datos, imágenes médicas, etc.
2

Factores en el diseño de un
codificador.
Calidad de la señal

- BER (Bit Error Ratio)
- SNR (Signal/Noise)
- MOS (Mean Opinion Score)

Eficiencia
- Tasa de compresión

Complejidad
-Espacio de memoria
- Potencia (mW)
- Operaciones/Seg.
3

Retardo

Dos clases de técnicas de
compresión.

Entropy encoding
Codifica los datos sin necesidad de conocer la
naturaleza de estos.
De propósito general (todo tipo de datos).
Son técnicas de compresión sin pérdidas.
Ejemplos: Statistical (Huffman, aritmética,etc.)
Source encoding
Codifica los datos basándose en las características ypropiedades de estos.
Suelen ser técnicas de compresión con pérdidas.
Se obtienen tasas de compresión elevadas.
Codificadores/decodificadores de propósito específico.
Ejemplos:
4

 vector quantization

Codificación basada en la
entropía.
Entropía:
Valor medio de información de un conjunto de
símbolos procedente de una fuente de información
(es imposible de medir en la práctica).

1
H  S  pi log 2
i
pi

(pi = probabilidad del símbolo i)

Por ejemplo: Sea S = {4,5,6,7,8,9}, en donde la

probabilidad de cada símbolo es la misma (1/6).

1
H  S  6  log 2 6 2.585
6

Según la teoría de la información (Shannon), esta
5

fuente no puede ser codificada (sin pérdidas) con
menos de 2.585 bits por símbolo.

Statistical encoding
Trata de identificar los símbolos (patrones de

bits)que más se repiten en el conjunto de
datos de entrada.
Se codifican con pocos bits los símbolos más
frecuentes, mientras que los menos
frecuentes son codificados con más bits.
Ejemplos:
Codificación Morse
 E: ‘•’ y Q:’--•-’

Codificación Huffman.
Codificación aritmética.

6

Run-length encoding
Se basa en detectar las repeticiones de

símbolos (bits, números, etc) en los datos acodificar.
Ejemplo:

Datos a codificar (42): 3150000000376541111111127000000000000003
Datos codificados (21):

315A0737654A1827A0143

Tasa de compresión: 50%

 Este

Audio: Tiras de ceros que representan
silencios.
 Vídeo e imagen: Fondos del mismo color
(paredes, cielos, etc.)


7

patrón es frecuente en multimedia:

Codificación basada en la
fuente.

Se basan fundamentalmente en las

propiedades dela fuente de datos a codificar.
Suelen tolerar pérdidas en la codificación
(lossy codecs) que perceptualmente pasan
inadvertidas para el usuario.
Son codificadores de propósito específico.
Por término general obtienen mayores
prestaciones que los codificadores basados
en la entropía.

8

Codificación Diferencial
Se basa en la codificación de las diferencias

entre dos símbolos consecutivos.Ciertos tipos de datos tienen la propiedad de
similitud entre símbolos consecutivos:
Señal de Audio, vídeo, imágenes, etc.

Esto permite codificar con pocos bits las

diferencias.
Ejemplo:


DPCM (Differential Pulse Code Modulation)

Codificación con pérdida.
9

Transform encoding
Se basa en transformar el dominio (Ej.: del

temporal al de la frecuencia) de los datos de
entrada (Ej.:...
Leer documento completo

Regístrate para leer el documento completo.

Estos documentos también te pueden resultar útiles

  • 110315
  • clase a clase
  • Clases
  • Clase
  • Clase
  • CLASES
  • Clase
  • clases

Conviértase en miembro formal de Buenas Tareas

INSCRÍBETE - ES GRATIS