VIDEO DIGITAL

Para poder entender conceptos que utilizaremos en mis Módulos sobre "MONTAJE", deberías conocer en profundidad los fundamentos del Vídeo Digital, que es la materia prima con la que trabajaremos durante los dos cursos académicos para desarrollar los diferentes proyectos de montaje.

Pero la primera pregunta que debemos contestar es ¿qué es el vídeo?.

Es la  captación, procesamiento y almacenamiento de imágenes en movimiento por medios electrónicos, ya sea analógicos (basados en señal eléctrica) o digitales (basados en sistema binario), frente al cine analógico, que utilizaría técnicas de almacenamiento fotoquímico, obtenidas por procedimientos ópticos. Aunque bien es cierto que la parte óptica, la formación de la imagen por el objetivo es la misma, la diferencia es que la imagen proyectada por el objetivo en un caso es proyectada directamente sobre el plano focal donde se encuentra la película y en el otro sobre un sensor electrónico, cuyas características varían según su fabricación.

El vídeo tiene una primera característica propia que no encontramos en el cine, que es la resolución espacial, o lo que es lo mismo, la dimensiones en píxeles de una imagen, es decir el número de pixeles que constituyen su altura y su anchura. A mayor número de pixeles, mayor resolución, o lo que es lo mismo mayor capacidad de resolver el detalle de la imagen captada por el objetivo. 



Fuente: Redwireinnovation 

En los últimos años, hemos sido testigos de una evolución de la resolución espacial, que puedes ver en la siguiente figura, donde se comparan la resolución SD, la HD, el 4K y el 8K.

RELACIÓN DE APECTO

Es otro de los aspectos a destacar, ya que representa la proporción entre el alto y el ancho de la imagen. La televisión en sus inicios adoptó una relación de aspecto de 4:3 (1,33:1) siguiendo la tradición del formato académico del cine. Los formatos cinematográficos fueron evolucionando hacia relaciones de aspectos más panorámicas, llegando al 2,39:1. En la televisión, hubo que esperar hasta los años 2000, para que se implantara en todo el mundo el formato de pantalla ancha 16:9 (1,77:1), con el que actualmente trabajamos. 

Como habrás observado en cine es habitual, representar la relación de aspecto en una relación con 1. Así podemos ver relaciones del tipo 1,33:1, 1,85:1, 2,20:1, etc. En cine digital DCI, los formatos panorámicos adoptados son 1,85:1 y 2,39:1, mientras que el televisión, como ya hemos dicho el estándar es el formato 16:9. 

Habría que hacer una consideración práctica, que afectará a nuestro trabajo, y es que el formato 1,85:1 de cine es muy parecido al formato 16:9 de la televisión, teniendo que aplicar un ligero recorte.

La siguiente figura os muestra una comparativa visual. 

Fuente: RED

PROFUNDIDAD DE COLOR

Otro indicador fundamental de la calidad es la profundidad de color  o número de bits, que indica la cuantificación de la señal. Es decir, cuántos bits se utilizan para describir cada píxel.
Con este dato se expresa cuantos valores distintos de brillo y color están disponibles para codificar la imagen. En resumen de cuantos colores disponemos en nuestra paleta de trabajo.
La profundidad de color mínima en los equipos profesionales es de 8 bits por cada componente RGB. Pero actualmente, ya sea en fotografía, en vídeo o en cine digital, se pueden utilizar 10, 12
o incluso 16 bits por cada canal RGB.
Estos valores permiten aumentar la gama de colores hasta niveles iguales o superiores a los que puede percibir el ojo humano y superiores también a los sistemas de monitorización de los que disponemos en los ordenadores.
Este aspecto queda patente sobre todo en los degradados, que valores bajos de bits no pueden resolver. En las siguiente figura, podéis ver tres ejemplos, en uno de ellos se produce una buena reproducción del degradado, mientras que en el otro aparece el error conocido como "color bandíg".




Fuente: Wikipedia

RANGO DINÁMICO

El rango dinámico de una imagen digital es la capacidad que tiene de representar correctamente el contraste, las altas luces y las sombras profundas.
Hablando en términos generales, y simplificando un poco, podemos decir que la película negativa que se utilizaba para cine tenía capacidad para registrar en torno a 12 f o stops de rango dinámico. Sin embargo los sistemas tradicionales de vídeo y televisión estaban limitados a unos 6 f-stops. Las nuevas cámaras que se utilizan en cine digital ya registran hasta 14 f o stops. Generan imágenes compuestas con una gama más amplia de niveles de gris y matices de color alcanzando valores equivalentes o incluso superiores a los del cine fotoquímico.
Las cámaras de cine digital, para registrar 14 f o stop de rango dinámico, aplican una curva de gamma logarítmica que genera una señal de bajo contraste con un aspecto plano y lavado. Posteriormente en postproducción se ajusta el contraste para componer una imagen atractiva, con mucha información de detalle en las altas luces y las sombras profundas, y adaptada a los 6-9 f-stops de los sistemas de visionado.

En la siguiente imagen se puede observar un plano capturado con una cámara Sony F5 en 4K con curva de gamma logarítmica y el resultado final después de un ajuste del contraste. 




Fuente: 709 MediaRoom 

Con las curvas de gamma logarítmicas se obtienen imágenes de mayor calidad. Se evita la sobrexposición de las altas luces y la pérdida de detalle en  las sombras. Pero es necesario un proceso de postproducción y corrección de color hasta alcanzar el aspecto definitivo de las imágenes.
Las cámaras pueden utilizar tres tipos de curvas de gamma
-  Gamma logarítmica. Es una curva gamma que optimiza el rango dinámico. Genera una imagen más lavada que requerirá un proceso posterior de corrección de color. Se utiliza en grabación de imágenes de alta calidad: cine, ficción televisiva, publicidad, etc.
-  Gamma corregida (generalmente 2.4 ó 2.2). Es como funciona la gamma ‘Rec.709’. Genera un contraste adecuado para la visualización final. Se consigue menos rango dinámico pero el material sale de la cámara con un look más definitivo. Se utiliza en producciones en donde no está prevista la corrección de color en postproducción: televisión de flujo, reportajes informativos, directos, etc.
-  Gamma lineal (1.0). Recoge directamente la información que genera el sensor. Se utiliza en los formatos RAW y en flujos de trabajo avanzados como efectos visuales (VFX) o producciones en espacios de color más amplios como ACES. 
En la siguiente figura se muestra la forma de estos tres tipos de curva de gamma
Resolución temporal. HFR  Fuente: 709 MediaRoom
Los sistemas de edición de vídeo que se utilizan hoy en día ofrecen cierta flexibilidad a la hora de definir la frecuencia de fotogramas o frames por segundo (fps) de una secuencia o un proyecto. En cine tradicionalmente se ha rodado a 24 fps, en la televisión europea a 25 fas PAL) y en Estados Unidos a 30 fps o a 29,97 fas (NTSC). Las cámaras digitales pueden grabar con cualquiera de estos valores de frecuencia y los sistemas de postproducción ofrecen herramientas para hacer las conversiones que puedan ser necesarias. 
Cuantos más fotogramas se tomen de una acción, más información se registrará sobre el movimiento que produce. Por ello la frecuencia de fotogramas por segundo (frame rate) de una secuencia se denomina ‘resolución temporal’ (temporal resolution). Es una herramienta muy versátil en la elaboración de cámaras 
Fuente: Apple 
La resolución temporal en la grabación también afectará a la definición de los bordes de los objetos en movimiento y al efecto de desenfoque de movimiento (motion blur). Un aumento en la frecuencia de captación implica también un aumento de la velocidad de obturación en la cámara generando así imágenes más nítidas con un efecto de  desenfoque de movimiento reducido. Hay que tener cuidado porque si utilizamos este ajuste en nuestra cámara de forma aleatoria, podremos obtener una reproducción extraña de los objetos en movimiento
Para Ultra HD y para cine digital se han especificado resoluciones temporales superiores que se conocen como High Frame Rate (HFR). Porque cuando se amplía el tamaño de representación, es decir, para pantallas de mayor tamaño, es conveniente también aumentar el número de fotogramas por segundo para obtener mayor nitidez y reproducir fielmente el movimiento. Las frecuencias de 48 fps o superiores se consideran HFR. 
Estéticamente hay una diferencia notable: el desenfoque de movimiento, que el espectador está acostumbrado a ver en el cine grabado a 24 fps, resulta artísticamente interesante. La frecuencia HDR produce a veces una sensación más fría y más real que puede no agradar a todo el mundo. Pero los gustos del público también evolucionan con la tecnología y la calidad de la representación se está imponiendo. 
Cuando el movimiento se percibe con un efecto estroboscópico, con tirones o falta de suavidad es debido a dos factores: la ausencia de desenfoque de movimiento y una resolución temporal insuficiente. Al contrario, las imágenes grabadas y reproducidas en HFR son más nítidas (por la ausencia de desenfoque de movimiento) y el movimiento es más suave. 
La norma BT-2020 contempla, además de los 48 fps, frecuencias de 50 y 60 fps en exploración progresiva. Los proyectores de cine digital bajo la norma DCI también incluyen la posibilidad de proyectar en las salas de exhibición a 48 fps. 
Los nuevos desarrollos para la televisión Ultra HD consideran valores de resolución temporal más altos aún. En las recomendaciones de DVB y SMPTE está previsto alcanzar los 120 fps. Las cámaras de cine profesional e incluso alguna de gama inferior ya ofrecen también la posibilidad de aumentar la resolución temporal. 
Las frecuencias más habituales en difusión son: 25 fps, 29,97 fps, 24 fps, 23,98 fps y 48 fps. En la siguiente tabla se detallan los contextos en donde se usan:

EL SUBMUESTREO DE COLOR

El submuestreo de color o Chroma Subsampling, es un tratamiento de la señal de vídeo por el cual se reduce la información del color. Consiste en reducir el número de pídeles analizados. este procedimiento, se basa en que la visión humana (el cerebro para ser más exactos) es más sensible al brillo (Luminancia) que a la información de color, manteniendo la sensación de fidelidad.

En una señal 4:4:4 (Y,Cb,Cr), donde Cb y Cr son las señales de separación de color, no hay submuestreo de color y por lo tanto se trata de una señal por componentes equivalente ene calidad al RGB o calidad máxima. En cambio el submuestreo 4:2:2, reducirá ala mitad la resolución de las componentes de color (Cb y Cr), preservando la luminancia (Y). En el 4:2:0 se reducirá la resolución de color a una cuarta parte. Todo el sistema se basa en la fórmula que relaciona la luminaria con las crominancia que la acompañan la imagen en color. Así podemos decir que Y = 0,59 G + 0,39 R + 0,11 G. Por lo tanto, si conocemos tres de ellas, la cuarta se deduce automáticamente en el sistema. La razón por la que la componente verde (G = Green), tiene una valor mayor, es porque el cerebro humano presenta una sensibilidad mayor a esa banda del espectro cromático por lo que cuánto mayor sea la información de este color, mayor será la sensación de calidad que obtendrá el espectador.



Cuando estamos realizando un trabajo profesional de alta calidad y también los materiales destinados a la postproducción, usaremos el muestreo 4:4:4 (sin submuestreo). En alguna ocasiones, cuando no necesitemos la calidad máxima podemos optar por un submuestreo 4:2:2.  A esta calidad se le conoce con el nombre de "calidad broadcast". Y por último, para el vídeo doméstico, prosumer y para la difusión, es habitual utilizar el submuestreo 4:2:0.


Hay que tener en cuenta, que el submuestreo penaliza la calidad de la imagen. Podemos encontrarnos con una señal de resolución 4K, que por culpa de un submuestreo de color bajo 4:2:0, esté por debajo de los estándares profesionales de la producción de cine y televisión. Está claro que esta imagen será más fácil de almacenar y transmitir, pero habremos sacrificado un alto porcentaje de su calidad original.


Hablando de almacenamiento, también hay que tener en cuenta que las imágenes de alta resolución y muestreo 4:4:4, pueden tener un tamaño enorme por lo que su manipulación, grabación o transmisión puede ser complicada, sobre todo requiriendo mucho tiempo para el proceso. Por lo que la tarea más importante es la de encontrar un equilibrio entre calidad y tamaño de archivo. Esto dependerá del segmento de mercado al que vaya destinado el material, utilizando en cada caso un decisión acorde con el producto final: profesional o doméstico. Una imagen a calidad 4K de un minuto de duración puede ocupar 1,27 Gb. Por todo esto se hace indispensable disponer de equipos capaces de mover esta cantidad ingente de información: conexiones, cables y discos duros de alta velocidad lectura/escritura, se hacen indispensables.