sábado, 26 de noviembre de 2011

7.1 COMPRESIÓN DE VIDEO DIGITAL

La compresión de video surge de la necesidad de transmitir imágenes a través de un canal que contenga un ancho de banda aceptable. La digitalización de la señal de video se enfrenta a un gran problema en ese aspecto: su gran ancho de banda. El muestreo y la cuantificación de la señal produce como resultado una secuencia digital con una tasa de transferencia de información muy alta (100 Mbit/s para una señal de televisión PAL convencional), y que al modularse por alguna de las técnicas existentes acaba presentando un ancho de banda mucho mayor que el que tiene la señal original analógica modulada.

Esto provocaba que hace años quedara limitado a sistemas de primer nivel, profesionales, donde la calidad es necesaria y se pueden resolver los costos de una forma sencilla. Pero gracias a los avances en los sistemas electrónicos se empezó a dar uso en los sistemas de segundo nivel, en los que la gran calidad subjetiva de la imagen no es tan relevante. Por ello un objetivo básico es la reducción de la velocidad binaria de la señal de video digital, de forma que disminuyan sus necesidades espectrales y se posibilite su uso cuando es reducido. Esta reducción de velocidad se hace sin la disminución de la calidad subjetiva de la señal, es decir, la calidad de la secuencia de video según el espectador que la está contemplando. Hay que eliminar información de la secuencia de video sin afectar a su percepción.

MPEG es el acrónimo utilizado para representar al grupo Moving Picture Experts Group, que fue creado por la Organización Internacional de Estándares (ISO) con la finalidad de establecer los estándares de transmisión y compresión para audio y video.

Un sistema de compresión se basa en tres parámetros: el codificador, el canal de transmisión y el decodificador; como se muestra en la siguiente figura:

 
7.1.1 ¿Por qué es necesaria la compresión?

La compresión de datos implica una reducción en los componentes de los mismos, a fin de realizar una transmisión más eficiente en cuanto a cantidad de información. Esta técnica se utiliza y es necesaria para lograr básicamente:

·         Dar un mayor tiempo de reproducción a un dispositivo de almacenamiento.
·         Lograr la reproducción de la misma cantidad de datos con dispositivos cada vez más pequeños.
·         Lograr la reducción de ancho de banda en un medio de transmisión, que a su vez genera una reducción de costos.
·         Permitir una mayor velocidad de transmisión en tiempo real, debido al aprovechamiento del ancho de banda que genera y que por tanto genere una mejor calidad de señal.

7.1.2 Tipos de compresión digital

Los sistemas de compresión se basan en la eliminación de información redundante que puede ser predicha por medios estadísticos. La entropía contiene la información de cuan variable es la predictibilidad de una señal, por lo tanto diferentes señales tienen diferentes niveles de predictibilidad. Por otro lado, el ruido es la señal menos predecible que existe, por lo que se deben usar mecanismos de pre-compresión para evitar una pérdida de señal en el momento de la compresión.

La señal de video existe en cuatro dimensiones: los ejes espaciales horizontal y vertical, los atributos del pixel y el eje del tiempo. La compresión, por lo tanto, se puede hacer en cualquiera de estos ejes. A continuación se muestra como se puede lograr una compresión con una imagen de video.

 
a. Compresión intra-código

Utiliza las dimensiones espaciales de la señal y se basa en el hecho de la existencia de valores de pixeles en una imagen que se repiten a una frecuencia determinada y que permite su reducción al disminuir la amplitud de la señal conforme aumenta dicha frecuencia. Otro aspecto a considerar es el que a mayor frecuencia espacial, el ojo humano es menos sensible a la detección de ruido por lo que se vuelve más tolerante a este tipo de señal dentro de la imagen.

b. Compresión inter-código

En este caso se utiliza la redundancia temporal, ya que la eliminación de redundancia se hace entre dos imágenes consecutivas en el tiempo, evaluando parámetros y características que se repiten entre ellas. Para el proceso de decodificación es importante mencionar la necesidad de la imagen consecutiva anterior en el tiempo.

Compresión sin pérdidas

Al tipo de esquema de compresión donde los datos comprimidos se descomprimen a su forma original exacta se llama compresión sin pérdidas. Está desprovisto de pérdidas, o degradaciones, de los datos. Se han desarrollado una variedad de esquemas de compresión de imágenes sin perdidas. Muchas de estas técnicas vienen directamente del mundo de compresión de datos digital y se han adaptado meramente para el uso con datos de la imagen digitales.

Compresión con pérdidas.
Todas las formas de compresión de imágenes con pérdidas involucran la eliminación de datos de la imagen. Sin embargo, la imagen primero se transforma a otra, y entonces se suprimen partes de ella. Los métodos de transformar y suprimir datos de la imagen son lo que distingue los diferentes esquemas de compresión de imágenes con pérdidas. La gran ventaja de los esquemas de compresión con pérdidas es la característica que tienen de comprimir una imagen con un factor de compresión más alto que los esquemas de compresión sin pérdidas. Este factor de compresión puede ser de 10:1 sin degradaciones visuales notables, y además se pueden alcanzar factores de compresión mayores de 100:1 con degradaciones visuales.

Técnicas usadas en la codificación digital de video

Existen multitud de métodos para la compresión de una señal digital de video. Para su enumeración pueden dividirse en dos grandes grupos, según su objetivo sea la reducción de redundancia espacial o temporal. Por supuesto que en un sistema es posible combinar varias técnicas. Los métodos mas empleados para la codificación son:

  • Codificación intracuadro  
  • Codificación de transformadas 
  • Codificación interpolativa 
  • Codificación íntercuadro.

Compresión de video en el estándar MPEG

En el año de 1990, la ISO, preocupada por la necesidad de almacenar y reproducir imágenes de video digitales y su sonido estereofónico correspondiente, creó un grupo de expertos que llamó MPEG (Moving Pictures Expert Group) procedentes de aquellas áreas implicadas en el problema (telecomunicaciones, informática, electrónica, radio difusión, etc.). El primer trabajo de este grupo se conoció como la norma ISO/IEC 11172, mejor conocida como MPEG-1, en el año 1992. La idea inicial era la de permitir el almacenamiento y reproducción en soporte CD-ROM con un flujo de transmisión de datos del orden de 1,5 Mbits/s, transportando tanto imagen como sonido. El estándar MPEG además de aprovechar la redundancia espacial intrínseca de una imagen fija utilizada en la codificación JPEG, aprovecha la redundancia temporal que aparece en la codificación de imágenes animadas, permitiendo encontrar similitudes entre las imágenes sucesivas de video. Debido a que la calidad en la compresión de video en el estándar MPEG-1 era de baja calidad y no servía para otras aplicaciones, se creó la norma ISO/IEC 13818, mucho más conocida con el nombre de MPEG-2. Esta norma permite un flujo de transmisión hasta el orden de los 20 Mbits/s, transportando tanto imagen como sonido. Norma que se utilizaría en la televisión de alta definición.

MPEG-1

Fue el primer estándar de compresión de audio y video que se desarrolló y nació a modo de competencia con los dispositivos de almacenamiento analógicos. MPEG-1 provee una solución de codificación audio-visual para dispositivos de almacenamiento que trabajan con una tasa de bits equivalente a la de un Compact Disc (CD).

Los sistemas MPEG usualmente desarrollan estándares de codificación de audio y video en paralelo, junto con estándares de multiplexación y sincronización. Sin embargo, también es posible usar dichos estándares por separado a manera de lograr mayor escalabilidad. Para ello los sistemas MPEG se dividen en partes perfectamente definidas. 

Las más importantes para MPEG-1 son las siguientes:

Video.- Detalla el formato de codificación para las secuencias de video que tengan una tasa de bits alrededor de los 1.5 Mbps. El proceso se basa en la utilización de codificación por DCT (transformada discreta de coseno), y en la predicción de errores con compensación; posteriormente se realiza la cuantización, el escaneo progresivo y la codificación de longitud variable.

Audio.- Define el formato de codificación para sonidos monofónicos (32-192 Kbps) y estereofónicos (128-384 Kbps), y los estándares que definen las tres capas de codificación (I, II y III) que están diferenciadas por características como retardo, eficiencia y complejidad. La capa III de este estándar es conocido como MP3.

Software de simulación.- Se utiliza como nivel de referencia para implementaciones de sistemas basados en el estándar, y como su nombre lo dice utiliza un software que define las herramientas que son necesarias para realizar una especie de reporte técnico de la simulación.


MPEG-2

Debido a los requerimientos que la tecnología demandaba conforme pasaba el tiempo, el grupo MPEG desarrollo un sistema que pueda dar solución común para la representación de video digital en el área del entretenimiento audiovisual, además de transmitir y almacenar información. Dicho estándar se denominó MPEG-2, que se basa en la tecnología de MPEG-1 pero con nuevos recursos que logran un mayor desempeño y la posibilidad de trabajar con imágenes de televisión digital de alta definición.

Las partes más importantes que presenta MPEG-2 son las siguientes:

Sistema.- Agrega a las especificaciones de MPEG-1 además de la capacidad de soporte para funciones como: hardware orientado a procesamiento (no solo software orientado a procesamiento), llevar múltiples programas simultáneamente sin necesidad de una base común de tiempo.

Video.- Especifica el formato de codificación para secuencias de video que estén por encima de la resolución HDTV (alta definición). La arquitectura básica es similar a la de MPEG-1 y agrega además soporte para la utilización de formatos de video entrelazados.

Audio.- Define el formato de codificación de audio multicanal. Soporta compatibilidad hacia adelante y hacia atrás con MPEG-1 para lograr que el decodificador estéreo de este último tenga la capacidad de reproducir fiablemente una señal multicanal MPEG-2.

Medio de almacenamiento digital, comando y control (DSM-CC).- Especifica los comandos de control genéricos que son independientes del tipo de almacenamiento (DSM – Digital Storage Media). Esto permite a las aplicaciones MPEG acceder local o remotamente a los DSM para realizar funciones específicas y sin la necesidad de conocer detalles de DSMs.

Codificación de audio avanzada (AAC – Advanced Audio Coding).- Al usar la compatibilidad hacia atrás con MPEG-1, la codificación de audio se ve afectada considerablemente, por lo que MPEG-2 AAC (o NBC – Non Backward Compatible) especifica el formato de codificación multicanal sin compatibilidad hacia atrás con MPEG-1, y que logra entregar la misma calidad de señal a menor tasa de bits que MPEG-2 BC.

Interfaz de tiempo real.- Define las herramientas adicionales que pueden usar los sistemas MPEG-2 para intercambiar datos en tiempo real, por ejemplo en aplicaciones de telecomunicaciones.

El estándar MPEG-2 es el más exitosos de los estándares de codificación de audio y video desarrollados a la fecha. El número de equipos que utilizan MPEG-2 son innumerables, además esta presenta en formatos de televisión digital como ATSC y DVB.

No hay comentarios:

Publicar un comentario