3Descripción de los estándares MPEG y especificaciones básicas

Como ya se ha mencionado, la televisión digital transmite señal digital, pero su contenido multimedia, es decir, vídeo y audio proceden de sus fuentes analógicas y tienen que ser convertidos en un formato digital (conversor analógico-digital).

Sin embargo, la señal de vídeo analógica que necesita un ancho de banda de 5 MHz en el caso de una señal de TV de estándar europeo de 625 líneas, con 720 píxeles por línea ello asciende a 414.720 (576 x 720) píxeles por imagen (frame). Después de la digitalización, una señal de vídeo en blanco y negro (con 25 imágenes por segundo) requeriría una velocidad de aproximadamente 83 Mbps (o aproximadamente 250 Mbps para vídeo en color). Estas velocidades de transmisión son demasiado altas y casi inaplicables en sistemas reales (por ejemplo, a través de satélite). Afortunadamente, las señales de vídeo, así como las señales de audio contienen una gran cantidad de información redundante que se puede eliminar a través de técnicas de compresión adecuadas. Utilizando compresión, la velocidad de transmisión se puede disminuir (basado en la calidad y resoluciones) a varios Mbps.

La información redundante representa (por ejemplo) la información que se puede predecir y no es necesario transmitir porque el receptor (decodificador) es capaz de añadirla. Las técnicas de compresión también se basan en las limitaciones relacionadas con la percepción humana de la información acústica y visual. Las señales de audio contienen alguna información que no se oye por el oído humano y se puede quitar. La señal de vídeo contiene una gran cantidad de información que se repite en tramas consecutivas y en base a este principio los algoritmos adecuados pueden disminuir una cantidad de datos transferidos desde el transmisor al receptor.

Para la compresión de fotografías digitales se desarrolló el formato JPEG que está utilizando la transformada discreta del coseno. En el caso de imágenes en movimiento, se formó el Grupo de Expertos en Imágenes en Movimiento (MPEG - Moving Pictures Experts Group) con la tarea de desarrollar técnicas de compresión eficientes para trabajos con clips de vídeo en ordenadores y su transmisión entre ordenadores u otros dispositivos.

La tecnología DVB adoptó los estándares de compresión MPEG [2].

El primer estándar definido por este grupo fue el MPEG-1. Este estándar proporciona vídeo de calidad media a tasas bajas de bits de hasta 1,5 Mbps para sistemas interactivos con almacenamiento de vídeo en CD-ROM. También se hizo muy popular para la distribución de los clips de vídeo a través de Internet. Sin embargo, MPEG-1 no fue capaz de reemplazar la televisión analógica. Sobre la base del principio de MPEG-1 fue desarrollado el nuevo estándar MPEG-2. La definición MPEG-2 fue influenciada por la necesidad de codificación de la televisión estándar y su distribución a través de los sistemas terrestres, de cable y satélite.

El estándar MPEG-2 está optimizado para la radiodifusión y también para tasas de bits más altas (2 Mbps y más) en base a la calidad y resolución del vídeo final. También es adecuado para el almacenamiento de películas en, por ejemplo, DVDs. El estándar MPEG-2 es compatible con MPEG-1, es decir, el decodificador MPEG-2 puede decodificar todos los flujos de datos codificados en MPEG-1 [2].

El estándar MPEG-4, publicado en 1998, ofrece codificación de objetos audiovisuales.

Contiene algoritmos más complejos que permiten a este estándar proporcionar a los usuarios vídeo en la misma calidad, pero con velocidades de transmisión más bajas que las de MPEG-2. MPEG-4 es compatible con una gran variedad de velocidades de bits y se puede utilizar para televisión por Internet (IP) con baja tasa de bits, así como distribución de televisión en alta definición. La ITU estandarizó este estándar como H.264.

El estándar MPEG-2 (tal como el MPEG-1) define tres partes principales:

  • MPEG-2 sistema (parte 1) que especifica cómo se produce el flujo final de datos MPEG-2,
  • MPEG-2 vídeo (parte 2) que especifica cómo se codifican la secuencias de vídeo elementales,
  • MPEG-2 audio (parte 3) que especifica cómo se codifican las secuencias de audio elementales.

El codificador de vídeo MPEG-2 toma imágenes de vídeo sin comprimir y los codifica mediante el cual las imágenes de tamaño fijo se convierten (comprimidas) a imágenes (unidades de acceso, Fig. 3) de tamaño variable. Su tamaño depende de la complejidad de la imagen original y del tipo de cada imagen, si se trata de una imagen I, P o B [2]:

El codificador de vídeo MPEG produce secuencias de imágenes I, P, B formando grupos de imágenes (GOP - groups of pictures). Cada GOP comienza con una imagen I seguida de una imagen P y/o B (Fig. 4). La presencia y número de imágenes P y B en un GOP influyen en la tasa de compresión final, retardo de codificación, la posibilidad de editar y propagación de errores.

El parte de audio MPEG-1 define tres capas de audio: la Capa I (la más usada en cintas de audio digital de Philips), la Capa II (codificador más eficaz para las tasas de bits fijas de 32 a 192 kbps por canal), la Capa III (más popular como formato MP3). El MPEG-2 mejora estos codificadores de audio mediante la codificación de más de dos canales de audio (hasta 5.1 multicanal), así como por otros codificadores de audio (MPEG-2 AAC).

Con las nuevas resoluciones de ultra alta definición (UHD - ultra high definition, 4K como 3840x2160 y 8K como 7680x4320) ha aparecido una nueva demanda de códecs de vídeo eficientes. El códec H.264/MPEG-4 AVC fue mejorado para soportar estas resoluciones y en 2013 fue desarrollado un nuevo estándar de compresión de video estandarizado como H.265 / MPEG-H, denominado estándar High Efficiency Video Coding (HEVC). En comparación con su predecesor, HEVC debería duplicar la tasa de compresión manteniendo el mismo nivel de calidad de vídeo.

image
Fig. 3 – Codificación por un codificador MPEG-2
image
Fig. 4 – Grupo de imágenes para un codificador de video MPEG