You are on page 1of 135

Cine digital

El cine digital es aquel que utiliza la tecnología digital para grabar, distribuir y
proyectar películas. Generalmente, se caracteriza por la alta resolución de las imágenes,
porque prescinde de algunos aspectos asociados a la proyección mecánica de las
películas y por las sobresalientes posibilidades de post-producción por medios
informáticos. Sin embargo el cine celuloide contiene más resolución e información en el
fotograma que el cine digital, sobre todo el matizado del color es más natural y puro y la
resolución mayor.
El cine digital se graba utilizando una representación digital del brillo y el color en cada
píxel de la imagen, en lugar de quedar fijada por emulsión química en el filme de
celuloide tradicional. La película final puede ser distribuida vía disco duro, DVD o
satélite, y puede proyectarse usando un proyector digital en lugar del proyector
tradicional.
Un formato común para trabajar en post-producción digital es el DPX, el cual representa
la densidad del negativo escaneado en un formato de 10 bits. También es frecuente que
se utilice un archivo para cada cuadro, que puede alcanzar los 20 o 50 megas.
Las películas de bajo presupuesto y con medios limitados están cada vez más siendo
rodadas en digital (aunque a menudo no sean cámaras de alta definición). Con la
creciente popularidad de esta tecnología en los últimos tiempos, los festivales
especializados en cine digital son hoy comunes por todo el mundo. El pionero y mayor
de ellos es el Onedotzero, celebrado en Londres desde 1996. Por el momento, muchos
objetivos de las cámaras electrónicas no se fijan en este mercado. El público al que se
dirigen es generalmente el de festivales sin ánimo de lucro y las piezas se frecuentan
más a menudo en vídeo que en cine. Cuando estos productos se lanzan al mercado es
casi siempre en formato DVD, por lo que se les puede considerar productos para
televisión sin emisión.
Desarrollo de la tecnología digital
Los comienzos en los años 80
Aunque el fenómeno del cine digital ha recibido una gran publicidad en los últimos
años, no es realmente un nuevo concepto: antes de ser re introducido como “cine
digital” a finales de los 90, se le conoció durante años como “cine electrónico”.
Sony se lanzó a comercializar el concepto de “cine digital” ya a finales de los 80,
usando cámaras HDTV analógicas basadas en tubos, con más bien poco éxito en un
principio. No fue hasta 1998, al ser capaces de desarrollar y comercializar cámaras CCD
manejables de 1920x1080 pixeles que incluían grabadoras HD Digital Betacam, cuando
la industria comenzó a tomarse en serio este nuevo medio. En cualquier caso, al estar
basadas en las antiguas tecnologías analógicas, esta temprana tecnología digital no
ofrecía grandes diferencias, incluso en lo referente a la calidad de imagen.
Desde finales de los 80 hubo varios proyectos cinematográficos, en cierto sentido
experimentales, que usaban tanto cámaras como proyectores digitales, pero ninguno con
gran éxito comercial. Una de las primeras proyecciones verdaderamente digitales fue el
cortometraje Driven Together, de David M. Kaiserman, en 2000. La primera secuencia
que utilizó secuencias generadas por computadora fue Tron, producida por Disney en
1982. Se utilizaron casi treinta minutos de animación generada por computadora, en
combinación con los personajes de la película. Aún así, la película contiene menos
imágenes generadas por computadora de lo que generalmente se pudiera suponer, ya
que realmente muchos de los efectos que parecen haber sido hechos por computadora
fueron creados usando efectos ópticos tradicionales: con una técnica conocida como
"animación con luz de fondo", las escenas en vivo dentro del mundo de la computadora
fueron filmadas en blanco y negro, impresas en películas de formato grande y alto
contraste, después coloreadas con técnicas tradicionales de fotografía y técnicas
rotoscópicas, consiguiendo así un aspecto “futurista” y “tecnológico” (al menos para los
parámetros del momento). En cualquier caso, el proceso fue inmensamente laborioso y
no ha sido repetido por ninguna otra película; con tantas capas de alto contraste y
negativos de formato grande, se necesitaron grandes cantidades de filme
cinematográfico, aumentando el coste sobremanera. Para crear esta película, Disney
tuvo que adquirir la Super Foonly F-1, una cámara de la serie PDP-10 de la más puntera
tecnología en su momento. Aunque hoy pueda parecer algo tosca (y sin entrar a valorar
temas creativos o de guion), la película ha sido ovacionada por ser un hito en la
animación por computadora. Y aunque la película inicialmente no tuvo éxito, se ha
convertido en filme de culto por ser pionero en el uso de gráficos generados por
ordenador, inspirando muchos populares videojuegos.]]
Los 90: la expansión del digital
En los años 1990, el cine comenzó un proceso de transición, del soporte fílmico a la
tecnología digital. Aunque el primer film con efectos especiales digitales fue Tron, ya
en 1982, no fue hasta mediados los noventa donde la tecnología digital desembarcó en
la industria cinematográfica, ya sea en grandes producciones que hicieron uso extensivo
de la tecnología digital, como las nuevas películas de Star Wars o Matrix, hasta la
películas hechas íntegramente en computadora, de la mano de Pixar y otras compañías.
Mientras tanto, en el ámbito del vídeo doméstico, surgió un soporte digital, los DVD
aparecen como nuevo estándar.
Hoy en día, Estados Unidos se prepara para equipar todas sus salas con proyectores
digitales, y los fabricantes hacen líneas especiales de cámaras digitales para cine
profesional, controladores de colorimetría y ediciones para sustituir la película. Los
diferentes formatos de HD, respecto al viejo 35 mm, ofrecen presupuestos más bajos,
facilidad de manipulación en el montaje, agilidad en el tratamiento y facilidad de
introducción de técnicas de síntesis digitales. George Lucas y James Cameron, por
ejemplo, han utilizado estos sistemas de HD que gran calidad, de tal manera que el
resultado final es casi idéntico al film en algunos casos. Otros directores, como Steven
Spielberg se rehúsan a migrar al digital y siguen haciendo sus películas en film, e
incluso editando en moviola.
La actualidad
Teniendo en cuenta los constantes impulsos a la tecnología digital año tras año, parece
que el futuro del cine es ser digital en los próximos 10 o 20 años. En cualquier caso, el
cine digital todavía tiene que recorrer bastante camino antes de reemplazar por completo
al celuloide: durante los últimos 100 años todas las películas han sido grabadas en filme
tradicional y todos los estudiantes de cine han aprendido cómo manejar una cámara de
35mm; sin embargo, la tecnología digital, especialmente el equipo de alta definición,
todavía no ha tenido tiempo de conseguir una extensa aceptación, pese a que la
creciente popularidad de la vídeo-cámara de alta definición (de menos de 2048 pixeles
horizontales) en el campo de la televisión ha incentivado ciertamente el desarrollo en
cine de las cámaras de 4096 pixeles y más, así como la tecnología de post-producción.
Pero no es cierto que estas cámaras graban a 4k; solo interpolan la imagen y no pueden
compararse al 16mm,35mm,65mm,70mm, y vista visión. Los primeros sistema de
película digitales escaneaban las imágenes la cámara grababa y transferían estas
imágenes para la proyección. Los actuales sistemas usan tanto cámaras digitales como
proyectores digitales. Los proyectores digitales capaces de una resolución de 2048
pixeles horizontales comenzaron a desarrollarse en 2005 y su avance es cada vez más
acelerado. La televisión y los discos de alta definición están ejerciendo una fuerte
presión para que los cines ofrezcan algo mejor que sea capaz de competir con la alta
definición doméstica. Una sala de cine digital debe ser capaz de ofrecer a la audiencia
alta definición de vídeo, de audio, subtítulos y otras características, amén de actualizarse
continuamente con los últimos avances tecnológicos (mejoras en la definición, cifrado
por parte de los distribuidores...).
Con la rápida difusión del digital y la proliferación de formatos, el Digital Cinema
Iniciativas (DCI), trabajando junto con miembros del comité SMPTE de protocolos,
publicó un sistema de especificaciones que han adoptado las mayores productoras
estadounidenses. Resumiendo, los protocolos indican que las imágenes sean codificadas
con el estándar ISO/IEC 15444-1 "JPEG2000" (.jp2) y que se use el espacio de color
CIE XYZ a 12 bits por componentes codificado en una gamma de 1/2.6; que para el
audio se utilice el formato “Broadcast Wave” (.wav) a 24 bits; también hablan de el
cifrado y otros detalles técnicos.
Cine digital frente a celuloide
La batalla teórica
El cine digital ha generado abundantes disputas en torno a la naturaleza intrínseca del
cine. Las posturas van desde los entusiastas que ven en la tecnología digital la panacea y
los avances que el lenguaje cinematográfico venía solicitando desde hace mucho tiempo
(como el popular George Lucas), hasta los detractores más acérrimos que ven en el
digital la pérdida de la esencia de la mirada fílmica (como los directores españoles
Víctor Erice o José Luis Guerín). Se ha dicho incluso que el cine digital supone otra
clase de experiencia visual totalmente distinta al cine grabado químicamente y
proyectado mecánicamente. En cualquier caso, y pese a que la mayoría de las películas
comerciales actuales y los programas televisivos de primera línea (al menos en Estados
Unidos) todavía son filmados y deberían seguir con película de celuloide tradicional
porque una cosa no sustituye a la otra, la cierto es que el avance del cine digital parece
ya una evolución.
Algunos puristas argumentan que el digital no consigue la misma “sensación” que una
película grabada en celuloide. Aunque esto es una materia de preferencias personales
más que otra cosa, las cámaras digitales han evolucionado rápidamente y la calidad se
incrementa drásticamente de cada generación de hardware a la siguiente pero aun así no
logran imitar ni asemejarse al celuloide en resolución y naturalidad. También existe el
contra-argumento de que al pasarse la mayoría de películas de nuevo a rollo de película
para su proyección en las salas, la “sensación” del celuloide retorna a la audiencia.
Aunque, al menos en la actualidad, las cámaras digitales no pueden alcanzar el mismo
nivel de calidad de imagen que un filme de 35 mm, hay quien piensa que el color y la
claridad son mejores en digital aunque no es así.
A finales del siglo pasado, numerosos directores notables declararon haberse
“convertido” al cine digital y que nunca volverán a usar filme tradicional, entre los que
se incluyen George Lucas, Robert Rodríguez, David Fincher, David Lynch, Lars von
Trier o James Cameron. Algunos, como James Cameron y George Lucas, incluso
declararon públicamente que jamás volverían a rodar con película tradicional. Otros,
como Steven Soderbergh o Michael Mann, aunque no han llegado tan lejos en sus
declaraciones, han grabado de forma experimental parte de sus últimas películas en
digital. En el extremo opuesto, directores tales como Steven Spielberg, Martin Scorsese,
Quentin Tarantino, Tim Burton, Ridley Scott u Oliver Stone, defienden continuar
realizando películas con filme tradicional e incluso opinan que nunca podrá ser
superado por la tecnología digital. Otros directores, como Víctor Erice o José Luis
Guerín, especialmente los dedicados a un cine más minoritario, también se sitúan como
acérrimos defensores del celuloide y sin embargo ruedan sus últimas películas con
cámaras digitales, puesto que no pueden asumir los costes del analógico.
Democratización
Una de las grandes esperanzas que hay puestas en la tecnología digital es que
democratizará el mundo del cine y abolirá las barreras económicas a la hora de realizar
películas, dado lo barato que puede resultar la grabación digital y la posibilidad de pasar
el material a vídeo y editarlo en un ordenador doméstico. Sin embargo, esto puede
resultar más complicado de lo que parece a simple vista. De entrada, el coste del
celuloide y el laboratorio supone sólo en torno al 1% del coste total de una típica
producción de Hollywood o de otros centros de cine comercial como Bollywood en
Bombay, por lo que el ahorro en términos totales no es tan significativo.
Por otro lado, aunque lo económico de la realización pueda permitir a mucha gente
grabar películas, continúa siendo necesario que sea distribuida para llegar al público, y
aquí aparece un mundo mucho más complejo. Se estima que se graban en digital cerca
de 5000 películas comerciales al año. Habida cuenta de esta cantidad, se entenderá que
los realizadores digitales puedan tener dificultades incluso para que los distribuidores
vean sus productos y, en cualquier caso, raramente tendrán voz y voto en las
negociaciones de la distribución.
En cualquiera de los caso, la actual estructura de distribución puede verse alterada por la
economía a una escala mucho mayor que por la propia realización cinematográfica. Si el
método de distribución tradicional cambia en el futuro hacia un producto de
accesibilidad más directa, entonces los realizadores digitales serán capaces de superar
los actuales obstáculos de la distribución tradicional del celuloide. Ciertamente pueden
crearse nuevos obstáculos a la hora de distribuir el producto final, pero éstos no
dependerán tanto de necesidad monetaria dado que distribuir una película en formato
digital es, al menos teóricamente, notablemente más barato que producir todas las
impresiones finales necesarias en celuloide. Este método tradicional de distribución
requiere grandes sumas de dinero para que la película final pueda llegar a cientos de
salas de proyección, que al fin y al cabo en uno de los pasos finales para que una
película dé beneficios económicos. Tanto es así que tradicionalmente, por lo general una
película no puede llevarse a cabo hasta ser aprobada por una empresa distribuidora, que
invertirá dinero en ella si cree que va a recuperarlo y ganar más.
Tecnología digital
Características de la tecnología digital
El video digital permite una post-producción mucho más flexible y una infinidad de
posibilidades impensables o extremadamente costosas usando técnicas fotoquímicas
como el film óptico tradicional. Los sistemas digitales tienen mucha mayor resolución
que los sistemas de vídeo analógicos, tanto en la dimensión espacial (número de
pixeles) como en la dimensión tonal (representación del brillo). También tienden a tener
un mayor control sobre la colorimetría durante el proceso de producción. El proceso
químico iniciado al exponer el celuloide a la luz ofrece la posibilidad de diversos
resultados, a los que un buen cineasta es capaz de sacar partido. Por el contrario, cada
cámara digital da una única respuesta a la luz y, aunque simplifica el proceso, es muy
difícil predecir el resultado sin verlo en un monitor, aumentando la complejidad de la
iluminación.
Las cámaras de cine no presentan dificultad para filmar en situaciones de alto contraste
lumínico, como la luz del sol directa. En estos casos la información de luces y sombras
aparece en la imagen filmada y no se pierde para siempre, recreada . Algunos directores
han optado por elegir la mejor opción para cada caso, usando el vídeo digital para las
grabaciones nocturnas y en interiores y la tradicional película cinematográfica para
exteriores de día. La digitalización permite un almacenaje de información y películas
que resiste infinitamente peor que el celuloide el paso del tiempo; de hecho, puede
llegar a considerarse perecedera[1], aunque hay voces que discrepan. Además, permite
un considerable ahorro de espacio físico a la hora de almacenar películas. Pese a esto,
algunos consideran que, actualmente, el filme de celuloide no sigue siendo, en muchos
sentidos, mucho más transportable que la información digital. El celuloide está
demostrado que es capaz de resistir más de cien años. En cuanto al almacenamiento
digital solo está demostrado que pueda resistir el paso del tiempo desde el que fue
creado. Si fue creado hace diez años, nada puede demostrar que vaya a durar más. (por
ejemplo los cds y dvds tienen una vida media de 15 años y los discos duros externos de
5 años)[2]
Otra característica propia de la tecnología digital es que la filmación y la proyección de
imágenes se realizan simultánea y conjuntamente con la banda sonora, también digital.
Tipos de cámaras
Las cámaras de Sony CineAlta son, básicamente, las cámaras de alta definición
descendientes de las Betacam, dirigidas a la producción cinematográfica. Así como los
estándares NTSC y PAL, pueden reproducir 29.97 y 25 imágenes por segundo
respectivamente, estas pueden grabar las mismas 24 imágenes por segundo. Sus
sensores CCD tienen una resolución de 1920x1080 píxeles (1080i de entrelazado en
inglés o 1080p de progresivo). Comparando, algunos escáners de filme analógico son
capaces de capturar más de 10.000 píxeles horizontalmente desde una película estándar
de 35 mm. El Episodio III de Star Wars se grabó con las cámaras más avanzadas de la
serie CineAlta, el modelo HDW950, con una resolución de 1920x1080 píxeles por
fotograma.
Las cámaras Mini-DV se usan desde hace ya bastantes años para películas
independientes o de bajo presupuesto y son bastante populares entre el consumidor no
profesional. Steven Soderbergh usó el popular modelo Canon XL en la grabación de
Full Frontal. Una Mini-DV es capaz de grabar en cinta imágenes de una calidad
considerable, aunque la tecnología está más limitada que en otros modelos
profesionales. Una de las primeras Mini-DV usadas en una película fue el modelo Sony
VX-1000, empleada por Spike Lee en Bamboozled.
La cámara Thompson Viper FilmStream tiene la misma resolución y fotogramas por
segundo que una cámara de alta definición como la CineAlta. Captura las imágenes sin
compresión, pero pueden ser comprimidas al pasar a una cinta o disco. La Viper fue
usada por primera vez en el corto Indoor Fireworks de Rudolf B. El primer largometraje
en que se empleó la Thompson Viper fue en Collateral de Michael Mann. Uno de sus
méritos es su capacidad de grabar con niveles de luz extremadamente bajos, lo que
permitió que gran parte de Collateral se grabase en las calles de Los Ángeles, de noche
y sin la necesidad de usar un gran equipo de iluminación.
IMAX para la proyección de películas en tres dimensiones 70mm horizontal
Panavisión lanzó en 2004 las cámaras Panavisión Genesis para competir con las
CineAlta de Sony. Las Genesis consiguen una resolución de 1920x1080, similar a la de
sus predecesoras, y utilizan un sistema de cinta parecido, pero utilizan un sensor CCD
con la misma medida que una cámara estandar tradicional de 35 mm, lo que le permite
una serie de ventajas como poder intercambiar objetivos con las cámaras tradicionales o
conseguir un control muy similar sobre la profundidad de campo. Algunas películas
recientes rodadas con cámaras Genesis son Superman Returns, Flyboys o Scary Movie
4, a la cual se le criticó la calidad de las imágenes, lo que se atribuyó a la alternancia de
la cámara digital y una tradicional de 35 mm.
Las Arriflex D-20 apareció a finales del 2005. La única novedad de esta cámara es su
tamaño y tipo de sensor: en lugar de un CCD convencional, utiliza un sensor CMOS
con la misma medida que el de una cámara analógica de 35 mm. Esto le permite usar las
mismas lentes, abarcar el mismo campo de visión y conseguir la misma profundidad de
campo que una cámara tradicional. La Arriflex alcanza una resolución de 1920x1080
pixeles.
La Red One es una cámara desarrollada por parte de la RED Digital Camera Company.
Graba en 2K y 4K 4520 X 2540, Tiene Un Sensor cmos De (12 megapixeles), a hasta
60 cuadros por segundo (progresivos en todos los casos, y programable por el usuario -
por ejemplo puedes obtener 24fps como en el cine, o los cuadros por segundo que
desees), mediante un sensor lo bastante grande como para adaptar la lente de una
cámara analógica de 35mm. Se proyecta como la más apetecida por productores
independientes, ya que su precio es de 7 a 10 veces menos que sus competidoras,
(precio USD $25,000, solo cuerpo).
1
y a precios que no son los usualmente
astronómicos de esa industria. Así mismo el vídeo es grabado en formato RAW con 12
bits por color (36 bits) para un rango dinámico como al que estamos acostumbrados a
ver en películas de cine.
Los paquetes de cine digital: DCI y los DCPs (parte I)
DCI, DCP, KDM, etc… son “palabros” que se están incorporando a nuestra industria y
que poco a poco vamos a tener que ir dominando. Pero, ¿Qué es DCI? ¿Qué son los
DCPs?, vamos a intentar arrojar un poco de luz sobre estos temas, además de mostraros
algunas herramientas para poder generar DCPs.
Para empezar por el principio, DCI son las siglas de Digital Cinema Initiatives, una
asociación de los grandes estudios de cine americanos, creada con el fin de marcar las
líneas para la distribución y exhibición de cine digital.
Esta asociación estableció unos parámetros técnicos para poder generar, distribuir y
exhibir las películas en formato digital. Las premisas para la normativa fueron
garantizar la máxima seguridad anti-copia de los contenidos y un nivel de calidad que
garantizase la exhibición hoy en día y en el futuro; dado que los nuevos másteres de las
películas iban a pasar a ser archivos digitales.
La normativa original data de 2005, y desde entonces ha sufrido dos revisiones en 2007
y 2008, así como un apéndice sobre cine estereoscópico en 2007.
Bueno, basta de historia, ¿Cómo me afecta todo esto a mi? La principal implicación es
que estos estudios tienen tal poder comercial que han conseguido que esta normativa sea
el estándar “de facto” de cine digital en la industria. Poco después de la publicación de
la norma empezaron a presentarse los primeros proyectores y servidores que cumplían
con el estándar DCI, hasta imponerse como la norma para distribuir y proyectar cine
digital. Así que, si creas cualquier contenido y quieres poder proyectarlo en una sala de
cine tienes que cumplir con esta normativa…
Y llegados a este punto, ¿No puedo generar un “fichero DCP” directamente con mi
software de edición, acabado o mastering? Pues, en la mayoría de los casos, no. Vamos
a ver cuales son las especificaciones que marca DCI y por qué no es tan sencillo generar
estos contenidos; habrá algunas inexactitudes para simplificar y hacer más
comprensibles algunos conceptos.
El DSM (Digital Source Master) es el primer paso, no es más que el material original
generado por nuestro sistema de acabado o mástering, este material debe sufrir una serie
de conversiones para poder crear un DCP válido, y estas corresponden con una serie de
fases que describe la norma DCI.
El DCDM (Digital Content Distribution Master) es el siguiente paso, se trata de
convertir el material a las resoluciones 2K o 4K marcadas por DCI y convertirlo a
TIFFs en espacio de color XYZ a 16 bits (aunque a día de hoy sólo se usen 12) y con
una gamma de 2,6.
Respecto a las resoluciones de 2K o 4K, DCI es muy restrictivo, dado que impone unas
resoluciones prefijadas y muy rígidas. Originalmente la norma DCI establecía sólo dos
tamaños de fotograma, 2048×1080 pixels para 2K y 4096×2160 pixels para 4K, ambos
a 24 fps. Posteriormente las revisiones de la norma ya no hicieron necesario añadir
bandas negras para cumplir con los formatos de cine más estándar como Scope (2,39:1)
o el estándar 1,85:1
Así, a día de hoy, estas son las resoluciones soportadas por DCI:
En 2K, 2048×1080 pix* se mantiene como la base, y se añaden 2048×858 pix para
Scope, y 1998×1080 pix para el 1,85
En 4K, sigue el base de 4096×2160 pix, así como 4096×1716 para Scope y 3996×2160
pix para 1,85.
Por último se añade un formato 2048×1080 pix a 48 fps para 3D estereoscópico, siendo
24 fotogramas por cada ojo y que se envían al proyector de forma alterna, para que
posteriormente el sistema en el cine se encargue de adaptar el contenido a cada uno de
los sistemas de proyección estereoscópica existentes.
Este DCDM debe ya tener en cuenta otra característica de los DCPs, usan un espacio de
color un poco especial, el XYZ. Este espacio de color fue desarrollado en 1931 por la
CIE, y se supone que es el que más fielmente refleja los colores visibles por el ojo
humano. Se representa cada color como una combinación de valores en los ejes X,Y,Z
y dicho espacio de color es usado a menudo como base para calcular otros espacios de
color ( como el RGB o sRGB habitual en ordenadores).
* usamos pix como abreviatura de Píxeles
** Imágenes cortesía de DVS




Los paquetes de cine digital: DCI y los DCPs (parte II)
En la primera parte de nuestro tutorial sobre DCPs nos quedamos en una de las fases
intermedias del proceso de generación del DCP, el DCDM (Digital Cinema Distribution
Master). Este DCDM no es más que una sucesión de TIFFs a 16 bits de profundidad de
color y en espacio de color XYZ, ya con las resoluciones 2K y 4K marcadas por la
norma DCI.
Así pues, una vez que tenemos el material preparado podemos empezar con la fase de
generación del DCP en si. Lo primero será comprimir todas los fotogramas a ficheros
JPEG 2000 y con un bitrate de 250 Mbits/seg (lo que supone unos 1.3 MB por
fotograma a 24fps).
Por su parte, el audio se comprime en PCM a 48.000 o 96.000 muestras por segundo,
con muestreo a 24 bits, y hasta un máximo de 12 canales independientes.
Posteriormente, estos ficheros JPEG-2000 de imagen y PCM de audio deberán
integrarse en un contenedor para su posterior distribución. Esto se logra
encapsulándolos en ficheros con formato MXF. A este respecto es importante señalar
que la norma DCI establece la obligación de dividir el material en Bobinas (reels), con
una duración máxima de 20 Mins por bobina. De esta forma, tendremos un fichero
MXF de imagen por cada bobina y tantos ficheros MXF de audio como bandas de audio
tengamos; es decir, para con banda sonora en más de un idioma, un MXF por idioma y
bobina.
Todo este material se copia en un carpeta junto a una serie de ficheros XML que se
generan durante el proceso y que indexan todo el material que integra el DCP. Estos
ficheros XML son la CPL (Composition PlayList), el ASSETMAP, el VOLINDEX y el
Packing List.
El ASSETMAP no es más que un fichero XML con un listado de todos los ficheros que
integran el DCP, sirve para que el servidor de cine digital sepa todo el material que tiene
que transferir en su almacenamiento interno.
La CPL es un fichero XML que indica el orden en que deben reproducirse todos los
contenidos, es una lista de reproducción, como las usadas por los reproductores
multimedia. En ella se identifica cada bobina con un identificador único (UUID), para
evitar cualquier posibilidad de error en el orden de reproducción.
A este respecto es interesante señalar que estos archivos XML son ficheros de texto
fácilmente editables, con el riesgo que ello conlleva de posibles manipulaciones de los
contenidos o reproducción del DCP.
Para evitarlo se genera otro fichero XML, el Packing List con un hash checksum, una
operación matemática que genera una clave alfanumérica obtenida mediante la suma de
valores de los datos en los ficheros, usando SHA-1 con base de codificación Base64.
Este fichero se comprueba durante la ingesta del material en el servidor de cine digital
para comprobar la integridad de los ficheros XML del DCP ante posibles
manipulaciones o corrupciones accidentales.
Por último, el VOLINDEX permite que al distribuir el contenido del DCP entre
diferentes medios (p.ej varios discos duros), se sepa el orden en que debe recogerse el
material de dichos medios.
De esta manera ya tendríamos listo un DCP sin encriptación, sería una carpeta con
varios MXF de audio y vídeo (uno por bobina). más los ficheros XML antes citados
(CPL, ASSETMAP, VOLINDEX y Packing List). Así obtendríamos un DCP sin
encriptación, con un uso principalmente no comercial; por ejemplo para publicidad,
distribución de cortos para festivales, etc… En general cualquier material en el que la
seguridad anti-copia no sea prioritaria.
No obstante, y tal y como comentamos en la primera parte, DCI tiene la seguridad como
uno de sus objetivos prioritarios. De esta forma, si el nuestro es un proyecto comercial
deberá tener encriptación, como de hecho sucede con todos los DCPs de películas que
se distribuyen comercialmente para proyección digital. Los grandes estudios, las majors,
imponen unos estándares de seguridad muy exigentes durante todo el proceso de
distribución, doblaje, subtitulado, etc…, para evitar posibles fugas de un material que es
un máster digital de alta calidad y, por lo tanto, susceptible de ser copiado y distribuído
de forma fraudulenta a gran escala.



Los paquetes de cine digital: DCI y los DCPs (III) – La
encriptación
En las dos partes anteriores hemos hecho un repaso a las bases del estándar DCI y a sus
principales características.
Así, en la parte II del tutorial hemos visto las características principales de un DCP sin
encriptar y los distintos elementos que lo integran: los MXF de vídeo y audio (essence
media) y los ficheros de metadata; Volindex, Assetmap, CPL y Packing List. Pero,
como comentamos al principio del tutorial, una de las prioridades de las majors al crear
la norma DCI era la seguridad anti-copia y la prevención de la piratería, dado que
estamos hablando de un máster digital de alta calidad fácilmente reproducible y
copiable.
Con el fin de asegurar los contenidos se decidió usar un sistema de encriptación de los
contenidos de media ( los MXF de audio y vídeo), dejando como medida de seguridad
de los ficheros XML de metadata el Packing List, con una comprobación hash que
comentamos anteriormente.
Estos contenidos de media en MXF se encriptan usando un algoritmo de encriptación
AES de 128 bits. AES (Advanced Encryption Standard) es un estándar de encriptación
de alta seguridad y que, a día de hoy, no ha podido ser desencriptado. Para hacerse una
idea de su seguridad, basta recordar que fue desarrollado por encargo del gobierno de
los USA, que lo ha adoptado para encriptar su información clasificada.
Así pues, los mismos paquetes MXF encriptados se mandan a los cines,pero, ¿Cómo los
desencriptan los cines? Ahí entra en escena el último fichero XML que integra el DCP,
el KDM o Key Delivery Message.
Para explicar que es un KDM primero debemos explicar un par de conceptos. Todos los
servidores de cine digital que cumplen con la norma DCI (prácticamente todos los
existentes en los cines), llevan grabada una llave privada (Private Key) de software en
una memoria interna que no es accesible ni reprogramable por nadie ajeno al fabricante.
Así mismo, el fabricante proporciona al dueño del servidor una llave pública (Public
Key) que es también única para cada servidor.
¿Qué es entonces el KDM y cómo se genera? El KDM es un fichero XML encriptado
mediante otro estándar de encriptación, RSA. Así, usando el public Key
correspondiente a cada cine, se genera un KDM para cada uno de ellos en el que va
incluída y encriptada la clave de desencriptación AES del contenido de media, de los
MXF. Este KDM es único para cada servidor y sólo puede ser abierto por el servidor
que tiene la Private Key correspondiente con la Public Key usada para crear dicho
KDM.
En el KDM se incluye así mismo metadata sobre los días que se ha contratado el pase
de la película y la clasificación por edades, entre otras informaciones, y un certificado
de firma (Signing Certificate) generado por el sistema creador del DCP con información
sobre la empresa y sistema con los que se ha creado el DCP, día de creación, etc… Este
Signing Certificate es encriptado también mediante RSA y está relacionado con la
Private Key del sistema usado para generar el DCP.
Como prueba de la importancia que tiene esta encriptación comentar que, incluso entre
las diferentes oficinas de multinacionales del sector, es habitual mandarse las películas
como DCPs encriptados, con un KDM específico para los sistemas que generaran un
nuevo DCP con los cambios correspondientes a las versiones locales.
Por otro lado, es posible que el DCP incluya otros ficheros y subcarpetas, los más
usuales son los Supplemental DCPs y los subtítulos.
Los Supplemental DCPs surgen como una manera de simplificar y abaratar la
generación de versiones nacionales de las películas, incluyendo o quitando escenas,
letreros, pistas de audio, etc…. En la práctica no son más que subcarpetas que incluyen
un “mini DCP” con los elementos de audio, vídeo y/o subtítulos que queremos insertar
o cambiar en un DCP existente. Incluye, como es lógico, una nueva lista de
reproducción (CPL) en la que se indica al reproductor que contenidos debe reproducir
en cada momento. Los nuevos contenidos se generan como bobinas (reels) adicionales,
como una EDL con insertos de vídeo y/o audio.
Respecto a los subtítulos son también ficheros XML con un formateo especial. se debe
crear un fichero XML por cada bobina y deben seguir una convención de nombres muy
rigurosa. Así mismo, se debe incluir en el subdirectorio en el que se encuentra el fichero
XML el fichero con la fuente tipográfica que se va a usar en formato .TTF o, si se usan
imágenes, los ficheros .PNG correspondientes a todos los subtítulos. En el caso de
DCPs estereoscópicos es posible jugar también con la profundidad del subtítulo con
respecto a la imagen, con el fin de darle mayor o menor profundidad.

DCP, un acercamiento práctico al estándar de proyección de cine
(I)

Seguro que alguna vez te has planteado proyectar tu nueva producción audiovisual
(corto, largo, documental, videocreación…) en una sala de cine comercial. O incluso
has tenido la tentación de presentarlo a un festival de prestigio internacional. Todos
ellos exigían, hasta ahora, una copia positiva en celuloide. Pero al descubrir los precios
del “hinchado” a 35mm –unos 300 euros por minuto- perdiste toda la ilusión.
LA ¿REVOLUCIÓN? DIGITAL
Con el advenimiento de la tecnología digital, muchos nos alegramos por la
democratización del sector audiovisual: acceso a cámaras de alta definición,
abaratamiento de los costes de producción, edición no lineal sobre un portátil y acceso
a una distribución, antes vetada.
Sin embargo, nos hemos encontrado con que nuestra exportación desde Premiere,
Final Cut, Vegas, Avid o Edius no sirve para proyección de cine digital (D-Cinema). Da
igual el sistema de edición, el formato de archivo o el codec usado; los servidores
(ordenadores encargados de reproducir las películas digitales) de D-Cinema sólo
aceptan un tipo de archivo llamado DCP (Digital Cinema Package). ¿Por qué no aceptan
mis archivos .avi o mis .mov?.
Para entender esta y otras cuestiones, tenemos que remontarnos al año 2002 cuando,
viendo la imparable expansión de la digitalización en su industria, siete de los mayores
estudios de Hollywood unen sus esfuerzos y fundan el DCI (Digital Cinema Initiatives)
para estandarizar una arquitectura abierta para el futuro cine digital. De esta forma
aseguraban la calidad técnica de las producciones, la interoperatibilidad de los
sistemas, la compatibilidad y, claro está, su hegemonía.
Entre las especificaciones técnicas del DCI encontramos la resolución de fotograma, el
espacio de color, la compresión de la imagen, la encriptación y el método de
empaquetado de los archivos. Estas recomendaciones ya se han extendido como
estándar en la masterización, la distribución y la exhibición cinematográficas. Ahora,
sólo nos queda aceptarlo y adaptarnos a ellas.
El problema sobreviene de nuevo cuando, vista nuestra incapacidad de crear un DCP,
nos decidimos por pedir a una empresa especializada un presupuesto para este
“transfer digital”. Mismo susto y misma desilusión: 300 euros por minuto. Teniendo en
cuenta que no existe más material entregado que un disco duro externo USB, de un
valor inferior a 99 euros, ¿cuál es la razón de este precio?.
Está claro que debemos tener en cuenta el desembolso en equipamiento informático
de la empresa de postproducción, el conocimiento y la supervisión humana necesaria.
Pero, siendo conscientes de que el estándar DCP es abierto –conocido, documentado y
basado en estándares SMPTE-, los precios de mercado anteriores no son sostenibles.
Ya existen en el mercado herramientas software que nos van a permitir crear un DCP
válido, conforme a las recomendaciones DCI y compatible con los actuales servidores
de cine digital de las principales firmas: Sony, Doremi, Dolby, GDC, XDC, QUBE…
Entre las opciones propietarias encontramos easyDCP Creator, Wraptor (plug-in para
Apple Compressor) o CineAssist. Facilitan el trabajo enormemente, disponen de una
interfaz gráfica de usuario, son de fácil uso y disponen de soporte. Algunas cuentan
con una versión de prueba gratuita. Por contra, son herramientas caras (entre 800 y
3000 euros según versiones) y cada actualización supondrá gastos adicionales para
nuestro bolsillo.
No dejan de ser una opción válida, pero teniendo en cuenta que alguna de ellas están
basadas en herramientas de software libre y, como decíamos antes, el estándar DCP no
es algo religioso ni basado en magia negra – aunque muchos sigan intentando que así
parezca-, vamos a explicar a continuación el proceso de empaquetado de un archivo
DCP de principio a fin basado en herramientas que ya disponemos o que son fáciles de
conseguir e instalar, otras de libre acceso,… sin cuotas, sin gastos, ¡sin tener que
instalar Linux! Increíble pero cierto. Lo único que nos requerirá es leer, invertir un poco
de nuestro tiempo, mucho espacio libre de disco duro -¡hablamos de terabytes (TB)!- y
algunas pruebas previas.
Antes de ponernos manos a la obra, debemos sentar las bases de su estructura y los
estándares abiertos en los que se apoya. Si entendemos estos puntos estaremos en
condiciones de valorar en su justa medida el porqué de las decisiones tomadas por el
consorcio DCI, y preparados para las próximas revisiones: 3D, 4K (se está estudiando
actualmente el formato 8K) y la encriptación. Aprender tanto nunca fue más sencillo.
No se pretende encabezar la revolución del cine indie. Solo ayudar a la producción
low-cost, democratizar el conocimiento, desmitificar la tecnología y eliminar las
barreras ficticias que muchos se esfuerzan en sostener para proteger su nicho de
mercado. No hay razón para que la producción DCP siga siendo un tema más
complicado que, digamos, la creación de un DVD o un disco Blu-Ray.
PROCESO DEL MASTERIZADO DE CINE DIGITAL
El elemento inicial del proceso de creación del archivo digital de proyección es el
master digital o DSM (Digital Source Master). Su preparación comienza a partir del
material final de la fase de posproducción y puede ser tanto un archivo Intermedio
Digital como una serie de imágenes. Se incluye también el audio. Es el punto de
partida para el proceso completo y puede ocupar varios TB.
A partir del DSM se crea el master digital para distribución o DCDM (Digital Cinema
Distribution Master). En calidad de objeto básico de intercambio que es, sus fuentes -
imagen, sonido y subtítulos- están aún sin comprimir ni encriptar.
Como el DCDM está expuesto a modificaciones tecnológicas y de contenido
permanentes, y con el fin de proporcionar interoperabilidad, se establece que es
responsabilidad del proveedor del contenido el suministro del formato correcto de
éste. Es decir, nosotros seremos los responsables de que el DCP final sea compatible
con los sistemas de proyección D-Cinema del mercado.
Las fuentes del DCDM se comprimen (obligatorio) y se encriptan (opcional) de forma
que se convierte en un archivo más manejable y pequeño –de unos cientos de
gigabytes (GB)-. Posteriormente se crea el listado de proyección o CPL (Composition
PlayList) que comprende el orden de reproducción de avisos, trailers y “reels” de la
versión completa de la película con audio, subtítulos y encriptación. Con todo ello
junto, se crea el DCP, el famoso paquete de cine digital, y se almacena en un disco
duro externo para distribución.
LOS ESTÁNDARES ABIERTOS DEL DCP
Hemos visto el proceso general de formación del DCP desde que sólo era una
secuencia de vídeo hasta que se empaqueta con el resto de datos para formar un
archivo compatible con un servidor de D-Cinema. Ahora vamos a ver más de cerca
cada uno de los pasos, incidiendo en los detalles más importantes para que nuestro
trabajo sea un éxito en pantalla.
Los pasos principales para la creación del archivo DCP son ocho:
1. Normalización del vídeo y del audio
2. Creación de la secuencia de imágenes
3. Generación de los canales de audio
4. Conversión del espacio de color
5. Formato y compresión de la imagen
6. Encapsulado de los materiales
7. Creación de los descriptores para la ingesta y la reproducción
8. Preparación del disco duro y copiado del material
Vamos a repasar funcional y tecnológicamente cada punto. Veremos sus bases e
intentaremos explicar los parámetros de interés para nuestro proyecto.
Antes incluso de iniciar el rodaje -lo que todos conocemos como preproducción-,
debemos decidir junto con el Director de Fotografía aspectos básicos del rodaje para
alcanzar la calidad final deseada. Sin embargo, la calidad depende de muchos y
variados factores. Aunque no podemos abarcarlos aquí todos -incluso algunos
escapan de nuestro control- vamos a insistir sobre unos pocos a los que debemos
prestar especial atención. Estos son, como ya imaginabais, los parámetros de cámara:
resolución, formato de grabación e imágenes por segundo (fps). Sobre la resolución de
nuestra grabación, todos sabemos que cuanto mayor sea ésta, mejor será la calidad
del producto final. Sin embargo, no debemos pensar que la calidad de nuestro
producto está únicamente relacionada con la resolución. Por ejemplo, es preferible
rodar a 720p que en HDV 1080i por más resolución inicial que ésta última tenga
(1440×1080 frente a 1280×720) pues las pérdidas en desentrelazado (obligatorio
para su correcta proyección en D-Cinema) suponen una merma de la resolución y del
movimiento, además del coste de procesado, que lo sitúan en una clara posición de
desventaja en cuanto a calidad de reproducción de imagen se refiere. Lo ideal sería
trabajar con un formato progresivo, a 24 fps y la resolución nativa más alta posible -
actualmente 1920×1080 para producciones de bajo coste- que nos permita la cámara.
Actualmente existen en el mercado cámaras muy asequibles (por debajo incluso de los
dos mil euros) que cumplen estos requerimientos mínimos.
El códec de grabación también tiene su importancia puesto que actualmente casi todos
los sistemas trabajan con compresión. No tanto el nombre del codec en sí, sino su
implementación. Por poner un ejemplo real del panorama actual Full HD y de costes
similares, el MPEG-2 HQ a 35Mbps implementado por Sony en la familia XDCAM EX es
claramente superior al MPEG-4 a 40Mbps implementado en las HDSLR de Canon en
cuanto a nivel de ruido visible y artefactos (macrobloques y degradados). Sin embargo,
el formato MPEG-4, implementado correctamente, tiene un rendimiento muy superior
al MPEG-2 –se ha cuantificado en el doble- con tasas de bits cercanas a las
comentadas. Dicho esto, y puesto que trabajar sin compresión suele ser una opción
inaccesible para muchos, una de nuestras virtudes será tomar el control de la
producción para obtener la máxima calidad de nuestro sistema comprimido, un asunto
que se escapa a los objetivos de este artículo.
PREPARANDO LOS MATERIALES: LA NORMALIZACIÓN
Tras este inciso, ya podemos adivinar la importancia del primer punto: normalización.
Esto indica que debemos usar los parámetros del sistema recomendado por el DCI
para que el proceso que viene a continuación se desarrolle sin problemas y de forma
más eficiente. Nuestro punto de partida en todo este proceso será nuestro programa
de edición o postprocesado, por lo que deberíamos asegurarnos que nuestra secuencia
cumple las propiedades siguientes:
- Cadencia de imágenes: cine (24 fps)
- Modo de exploración: progresivo (p)
- Resolución recomendada: Full HD (1920×1080)
- Relación de aspecto de píxel: cuadrado (1:1)
Tenemos que destacar un detalle del mundo digital. Normalmente, lo que muchas
veces se etiqueta como 24p es realmente 23,976p (este valor se redondea a 23,98p).
Esta pequeña diferencia fue un compromiso con las frecuencias de cuadro ya
existentes, de forma que el nuevo sistema electrónico fuera lo más compatible posible
con cine y TV. Esto puede llevarnos a confusión pues muchas cámaras graban ya a 24
fps reales mientras que otras lo hacen a 23,976 fps, pero todas indican 24p (ó 24 fps)
como base de tiempos en sus menús. Por ejemplo, cámaras HD como las de la gama
XDCAM EX de Sony o las réflex de Canon usan realmente 23,98p cuando elegimos 24p
en sus menús de configuración de los parámetros del vídeo. Otras cámaras, como la
Red One o la familia CineAlta de HDCAM, permiten ambas bases de tiempo y en sus
menús de configuración se detallan los dos formatos.
Si nuestro proyecto es diferente de 24 fps, tenemos dos opciones. La primera y la que
menos quebraderos de cabeza nos va a suponer, es válida para cualquier proyecto, con
cualquier base de tiempos, siempre que la imagen sea progresiva o se encuentre
desentrelazada. Se trata de exportar a 24 fps directamente. Esto conlleva un procesado
de CPU extra para la interpolación de las imágenes y una pérdida de definición en los
movimientos. Así leído parece más grave de lo que es, sin embargo en reproducción
todo queda más o menos enmascarado y los errores sólo son detectables
inspeccionando imagen a imagen el archivo. Además, existen multitud de filtros que
pueden aplicarse para mejorar la imagen, a costa de aumentar los tiempos de
procesado. El resultado final no se ve alterado en su duración original y el audio puede
procesarse normalmente.
La segunda opción se usa con el fin de mantener la integridad de cada imagen grabada
y siempre en búsqueda de una calidad sobresaliente. Por el contrario, requerirá
continuas revisiones de cada exportación para asegurarnos de la sincronía entre el
vídeo y los audios. Sólo es válida para proyectos 23,98p y 25p (también podemos
partir de un proyecto 50i desentrelazado) y consiste en exportar las imágenes de
forma nativa. Puesto que el DCP se conforma a 24 fps, imagen a imagen, la duración
total se reducirá en 0,1% para un proyecto original 23,98p o se incrementará un 4,1%
para 25p. Atención en este punto para las pistas de audio que necesitarán comprimirse
o expandirse, y que ciertos Diseñadores Sonoros y/o compositores no van a tolerar
debido a los cambios de tempo y tono que se producen, salvo que se utilicen
herramientas específicas de corrección de tiempos que preservan el tono.
Animaos a usar ambas opciones y comparar los resultados vs. tiempo invertido. Queda
claro que si nuestra intención es llegar a la gran pantalla, es casi obligatorio realizar el
rodaje en formato 24p real (24 fps). Mantener la máxima calidad posible está en
nuestra mano.
Respecto al audio hay que recordar que el cine es un sistema multicanal de sonido
envolvente. La normalización para el audio incluye una edición multipista de seis
canales (aunque técnicamente acepta hasta 16) para conformar un sistema 5.1
surround. Este es un caso bastante improbable en producciones de bajo coste, por eso
veremos más adelante cómo obtener esos seis canales desde nuestra pista
estereofónica. Sólo adelantar que nuestro formato de audio debe estar normalizado a
una calidad superior a lo que conocemos como broadcast. El cine es así de exigente
DCP, un acercamiento práctico al estándar de proyección de cine
(II)
DCP, un acercamiento práctico al estándar de
proyección de cine (II)

Ya tenemos en mente cómo debemos preparar nuestro video y nuestro audio, pero
todavía no hemos decidido la exportación en sí de estos archivos. Una vez que hemos
terminado la edición, la inclusión de los FX y la corrección de color (incluido legalizar
la señal entre 0 y 100 IRE), solo queda la exportación de nuestro proyecto. Pero, ¿a qué
formato de archivo y con qué codec? Debemos exportar desde la línea de tiempos de
nuestro programa de edición o postproducción. Las exportaciones deben hacerse por
separado y conforme a las recomendaciones dadas con anterioridad. El video es
recomendable exportarlo a un formato sin compresión 4:2:2 o 4:4:4, con 10 bits por
muestra, manteniendo una resolución de 1920×1080 a 24 fps, o manteniendo nuestra
base de tiempos como hemos visto antes. ¡Atención! ¡Muchos sistemas de edición
también indican 24 fps cuando en realidad usan 23,976 fps! Hay que comprobar que el
formato de salida elegido sea un 24 fps real, por ello es recomendable realizar
previamente unas pruebas de exportación con unos pocos segundos de video antes de
lanzarnos a trabajar con nuestros materiales completos.
La razón de usar 10 bits lineales por muestra en vez de 8 tiene su razonamiento
técnico. Los bits están relacionados con la calidad de la imagen a nivel de gradación
tonal. Es decir, a mayor número de bits en la codificación, mayor número de niveles
posibles para la señal, y por lo tanto, una capacidad mayor para representar fielmente
variaciones de tonalidad. El problema de las bandas en la imagen y en su histograma
es uno de los inconvenientes que todos conocemos y está relacionado con el nivel de
bits y la compresión, aunque muchas veces se confunde al responsable directo del
error. Para 8 bits tendremos 256 niveles, para 10 bits tendremos 1024 y para 12 bits
4096. Está demostrado científicamente que el límite visual de cualquier persona está a
un nivel inferior que las capacidades de representación de un sistema de 12 bits
lineales (igual de eficaz que un sistema de 10 bits logarítmico). Por ello, se toma “12-
bit lin” ó “10-bit log” como referente de calidad máximo. Sin embargo, las
imperfecciones de los sistemas y el ruido, inherentes a cualquier imagen de origen no
infográfico, enmascaran los defectos y se ha demostrado que en la práctica real y para
la mayoría de los sistemas, el trabajo con 10 bits lineales es suficiente. Por eso 10 bits
lineales es la referencia de calidad y las máximas especificaciones de casi todos los
equipos de alta gama, tanto de grabación como de edición. Solo tenemos que pensar
en que, hoy por hoy, la mayoría de las televisiones, los DVD y Blu-Rays que vemos,
incluso nuestra pantalla de ordenador de edición, trabajan con ¡8 bits! y nos parecen
suficientes. Pero nosotros vamos a trabajar a la máxima capacidad de nuestro sistema
por varios motivos: para no perder calidad del original si tenemos fuentes de video de
10 bits o montajes de secuencias de imágenes infográficas de 16 bits, para evitar al
máximo los errores de cuantificación de nuestro sistema durante la exportación y
preservar en la medida de lo posible nuestros blancos de la imagen, y porque el
destino final para el DCP será un archivo 12 bits lineal.
El audio lo exportaremos a un archivo con un formato sin compresión. La mejor
manera de almacenar estos datos es usando el formato de intercambio OMF,
especialmente para mezclas multipista de varios canales. Sin embargo, para mezclas
estereofónicas (lo más común en cualquier proyecto) AIFF (Apple) o WAVE (forma de
onda de Windows) son los formatos más extendidos dentro del audiovisual. Tenemos
que evitar, en la medida de lo posible, usar formatos comprimidos tipo MP3 o AAC
tanto en nuestras fuentes como en nuestras exportaciones.
Al final de estas exportaciones tendremos un archivo de video y un archivo de audio
que forman nuestras fuentes master. ¡Enhorabuena, acabas de generar tu DSM!
FOTOGRAMA A FOTOGRAMA: EMULANDO AL CINE TRADICIONAL
Con el DSM nos podemos poner a trabajar en la exportación de los fotogramas. Va a
ser como en el cine: imágenes sin compresión. Para ello disponemos de múltiples y
variadas herramientas, y cada una ofrece unas funcionalidades diferentes que muchas
veces no están bien documentadas. Para ello, antes debemos pararnos a evaluar
nuestras herramientas. En un intento de mantener la calidad del original y puesto que
a continuación vienen más modificaciones de los fotogramas resultantes, entre los
múltiples formatos de archivos gráficos de salida que existen debemos escoger
siempre aquel que nos permita trabajar sin compresión y con el máximo número de
colores. A partir de este punto nuestro sistema operativo va a dejar de ser un
inconveniente porque la exportación va a ser a un codec y un formato abierto y
multiplataforma.
Entre las opciones posibles tenemos dos claros ganadores: TIFF (posee la opción de no
comprimir, soporta hasta 16 bits lineales por muestra de color y es actualmente un
estándar de la producción audiovisual) y DPX (SMPTE 268M-2003, archivo heredero del
Kodak Cineon, sin compresión, siempre a 10 bits, con opción lineal o logarítmica, y
que es el estándar de la producción cinematográfica digital). Ambos archivos permiten
mantener la calidad original de nuestro DSM.
Sobre las herramientas disponibles, queda clara la orientación que las diferentes suites
han elegido para sus productos. Mientras que Apple se ha decantado siempre más por
el cine digital, Adobe siempre ha estado posicionado del lado de los artistas digitales y
multimedia. Y esto se ve claramente en la evolución de sus productos y en sus
capacidades. Con las últimas revisiones de software parece que todos tienden a ofertar
las mismas opciones de trabajo, aunque esto no siempre es así. Podemos ver en el
cuadro siguiente varias de las herramientas más extendidas y sus posibilidades para la
exportación de los fotogramas como secuencia de imágenes en sus últimas versiones
(Tabla 1).

Tabla 1. *permite realizar simultáneamente el cambio al espacio de color especificado
por el DCI.
Es preferible trabajar con los máximos bits por color posibles para evitar futuros
problemas. Sin embargo, tal y como hemos declarado antes, la realidad es que si bien
las diferencias de calidad existen, estas son sutiles y es muy difícil, por no decir
imposible, distinguir a simple vista entre un TIFF a 8 bits y otro a 16 bits. Está claro
que disponer o no de alguna de las herramientas de la lista va a ser la clave para
decantarse por un formato u otro. La capacidad de almacenamiento de que
dispongamos también va a ser un factor de decisión, debido al alto volumen de datos
que se va a producir en esta conversión. Por ejemplo, un fotograma Full-HD guardado
como TIFF 16 bits sin compresión ocupa aproximadamente 12 MB, el doble que uno de
8 bits. El DPX, al ser un formato de 10 bits, ocupa aproximadamente 8 MB. Ahora,
¡calculad cuánto va a ocupar vuestro producto audiovisual! Menuda sorpresa, ¿verdad?
La solución de compromiso es la exportación a formato DPX, ya que mantiene toda la
información del original de forma óptima. Puesto que nuestras fuentes y el futuro DCP
usan codificación lineal, usaremos la opción de exportación lineal (0-1023 niveles)
para el DPX.
Independientemente del formato elegido, ocurre un primer cambio del espacio de
color de Y’CbCr a RGB y del rango de codificación de la señal de video válida. Todo
esto de forma automática por el cambio de video a imagen fija. Esto implica prestar
atención a los niveles máximos (white) y mínimos (blacks) de nuestra señal, de forma
que no se produzcan recortes imprevistos ni compresiones de negros que no había en
nuestra corrección de color original (si no aplicamos en su momento niveles de señal
legales para blancos y negros). De nuevo se requiere atención en el proceso y unas
pruebas previas.
La extracción de los fotogramas la realizaremos con una tasa de cuadro 1:1 y en la
resolución nativa del formato de archivo que hayamos elegido. Debemos usar para la
secuencia un nombre raíz al que la herramienta de exportación anexará la numeración
de cada fotograma. Esta numeración la elegiremos con el número de dígitos máximo
que nos permita para evitar problemas en la secuencia final. Como dato orientativo,
cuatro dígitos son suficientes para producción de anuncios y videoclips, cinco para
trabajos de hasta de 69 minutos de duración y seis para trabajar con largometrajes
completos. El resultado serán archivos con el formato siguiente: nombre.0001.dpx,
nombre.0002.dpx… Es práctico crear un directorio de trabajo para cada punto del
proceso, de forma que vayamos organizando los materiales de forma lógica y podamos
volver a ellos en caso de necesidad.
RODEADOS POR EL SONIDO: MASTERIZANDO SONIDO SURROUND
Ahora que ya tenemos la secuencia exportada, y antes de meternos en faena con los
fotogramas, vamos a terminar el masterizado del sonido de nuestra producción y a
comprobar que su duración y sincronía se ajusta perfectamente a nuestra secuencia de
imágenes. Para ello sólo tenemos que volver a nuestro DSM y coger las pistas de audio
e importarlas a nuestro sistema de edición de sonido. Si tenemos una mezcla de
canales envolventes, podemos saltar hasta el final de este punto, donde hablamos de
la duración, del formato y los parámetros que deben tener los canales exportados.
Aunque de todas formas nunca está de más seguir leyendo para cuando nos tengamos
que enfrentar a un sonido estereofónico.
Existen varios métodos posibles para mezclar nuestro sonido. Vamos a ver los más
sencillos y efectivos, pero antes tenemos que saber por qué no podemos dejar nuestro
audio estéreo sin maquillar. Veamos cómo se distribuyen los canales de sonido en una
sala de proyección de cine (Figura 1).

Figura 1. Disposición de las cajas de sonido en una sala de proyección cinematográfica
(Dolby Labs)
Se trata de una disposición llamada surround 7.1. Para una configuración 5.1 (la norma
mínima admitida) el decodificador de sonido duplica los canales surround sobre los
canales traseros (está representado con un sombreado bajo las cajas surround). Estos
están distribuidos en la sala desde las primeras filas hasta rodear la última línea de
butacas, una distribución que no se parece en nada a la que tendríamos en un sistema
casero “home theater”. El resto de cajas están ocultas tras la pantalla perforada, donde
vemos que la separación entre las cajas de los canales izquierdo y derecho es igual al
ancho de la pantalla de proyección. En el medio exacto encontramos la caja central,
mientras que el espacio inferior lo ocupa la caja de efectos de graves.
Así como en nuestra casa, viendo un DVD en nuestra televisión estéreo, apenas
apreciamos las sutilezas de la mezcla, en el cine las percepciones espaciales se
multiplican. El diseño arquitectónico de los cines y las imposiciones de rígidas
certificaciones de calidad (como THX) hacen que nos enfrentemos a una diferencia de
localización de las fuentes estéreo de entre 25 y 120 grados (en función de la butaca
elegida). Ahora que notamos el tamaño de pantalla, la disposición de las cajas y
nuestra proporción respecto a las medidas de la sala, ya podemos imaginarnos la
necesidad de tratar y mezclar nuevamente nuestro audio. El mismo audio estéreo que
se escuchaba muy bien en nuestra sala de edición va a percibirse deslocalizado en la
gran pantalla, especialmente para los diálogos.
Es por ello que los diálogos diegéticos se mezclan siempre en el canal central, dejando
los canales izquierdo y derecho para diálogos fuera de plano, efectos diegéticos y
extradiegéticos y música. Estos son los tres canales principales y más importantes a
los que debemos prestar atención y tratar con cariño en la mezcla. El resto de canales
son opcionales. Si decidimos completarla, el siguiente canal de interés sería el de
efectos de graves, bastante fácil de construir. Y como guinda, podríamos animarnos a
realizar los canales surround, algo que personalmente no recomiendo salvo que exista
experiencia pues podemos crear efectos indeseados en la sala e incluso perjudicar el
resultado. Por ejemplo, muchas personas han duplicado los canales estéreo en los
surround pensando en dar a la sala una mejor audición sin saber que, nada más lejos
de su intención, en amplias zonas de la misma el audio se vuelve ininteligible debido a
que determinadas frecuencias se anulan por llegar al oído en contrafase.

Disposición de las cajas de sonido en una sala de proyección cinematográfica y
condiciones mínimas de escucha y visibilidad (THX)
Ahora que ya sabemos que este paso es necesario, solo queda dar las indicaciones
para crear los canales necesarios desde nuestro estéreo. La opción sencilla es partir de
una normalización y después crear los siguientes canales monofónicos:
- Izquierdo (L): 100% del canal izquierdo antiguo.
- Derecho (R): 100% del canal derecho antiguo.
- Central (C): 50% del canal izquierdo antiguo + 50% del canal derecho antiguo
- Efectos de graves (LFE): sin audio (silencio)
- Surround izquierdo (Ls): sin audio (silencio)
- Surround izquierdo (Rs): sin audio (silencio)
Desde la opción más sencilla podemos ir incrementando la complicación de la mezcla y
el número de canales. La mezcla sencilla podría verse mejorada con dos cambios:
- Central (C): 50% del canal izquierdo antiguo + 50% del canal derecho antiguo, y al
resultado le aplicamos un filtro paso alto (-18 dB para frecuencias inferiores a 200 Hz).
- Efectos de graves (LFE): 50% del canal izquierdo antiguo + 50% del canal derecho
antiguo, y al resultado le aplicamos un filtro paso bajo (-18 dB para frecuencias
superiores a 120 Hz).
Existe un filtro específico en aplicaciones profesionales de audio que permiten la
extracción del canal central C. En caso de disponer de una de estas herramientas se
recomienda encarecidamente su uso, puesto que se trata de un procesado digital de
las señales de audio estereofónicas muy complejo y eficiente, con una respuesta
frecuencial en sala excelente y que se complementa a la perfección con los canales L y
R.
Podríamos llegar a la mezcla ficticia completa. Es la más complicada debido al uso de
herramientas concretas y corremos el riesgo de que el sonido en sala no quede como
imaginábamos (estamos haciendo trampa inventando y creando sensaciones de sonido
envolvente). Los canales adicionales serían:
- Surround izquierdo (Ls): 50% del canal izquierdo antiguo, filtrado paso alto (-18 dB
para frecuencias inferiores a 120 Hz) y un poco de reverberación.
- Surround derecho (Rs): 50% del canal derecho antiguo, filtrado paso alto (-18 dB
para frecuencias inferiores a 120 Hz) y un poco de reverberación.
Debido a la complicación técnica y a que las mezclas son muy subjetivas, los
parámetros indicados son orientativos y pueden modificarse para experimentar con
ellos. Supongo que no habrá que insistir en que toda mezcla 5.1 debe ser probada en
sala con anterioridad a su difusión pública.
Solo nos quedan dos pasos para cada uno de los seis canales. Se trata de la
comprobación de la duración total y su exportación al formato D-Cinema. La mejor
forma y la más exacta es crear un proyecto 24 fps en nuestro sistema de edición e
importar la secuencia de imágenes a la línea de tiempos de forma que podamos ver la
duración. Este dato debe coincidir con nuestros cálculos previos:
- Si convertimos nuestro proyecto a 24 fps en la exportación, la duración no habrá
variado y cada canal de sonido tendrá la misma duración.
- Si no convertimos nuestro proyecto 23.976 fps, ahora debe indicarnos una
duración 0,1% menor que el tiempo original y cada canal de sonido deberá
comprimirse en esa misma proporción.
- Si no convertimos nuestro proyecto 25 fps, ahora debe indicarnos una duración
4,1% mayor que el tiempo original y cada canal de sonido deberá expandirse en esa
misma proporción.
Desde nuestro sistema de edición de audio modificaremos la duración con ayuda de
las herramientas disponibles intentando mantener el tono. Una vez comprobado que la
duración del proyecto 24 fps y la de los canales de audio son idénticas, exportaremos
cada uno de los canales que hayamos diseñado por separado (L, R, C, LFE, Ls y Rs) al
formato sin compresión de audio WAVE (.wav tipo 1), con los siguientes parámetros de
codificación (exigidos por la norma DCI): codificación PCM lineal, 48 KHz (96 KHz
también está permitido) y con 24 bits por muestra. En este momento debemos tener
seis archivos WAV en nuestro directorio de audio final.
Por el momento, hemos terminado con el sonido… Como anécdota, os tengo que
contar que yo siempre pienso en dedicarme al sonido por aquello de que el material es
infinitamente más barato que el de producción de imagen, preparar un plano cuesta
muy poco, se puede doblar si algo sale muy mal, no ocupa espacio (ni real ni en disco
duro), se puede editar en tiempo real ¡sin compresión! con un portátil viejo y los pasos
para crear el DCP son mil veces más sencillos. Pero es solo un momento, y pronto
vuelve mi motivación por todo el audiovisual y los secretos que esconde.
A MAQUILLARSE: CONVIRTIENDO AL ESPACIO DE COLOR XYZ
El consorcio DCI se adelantó en su momento al comité DC28 del SMPTE (constituido en
el año 2000), encargado de normalizar el nuevo cine digital. En cierta manera, este
hecho les vino bastante bien puesto que el DCI ya había puesto toda su maquinaria
industrial en marcha. Los oídos del DCI se dejaron asesorar por los expertos,
escucharon a los directores de fotografía, hicieron todo tipo de pruebas de proyección,
incluso invitaron a gente de la calle a participar en algunas pruebas subjetivas. Todo
para mantener y asegurar la máxima calidad del cine, hoy y en el futuro.
El DC28, por su parte, se limitaba a seguir de cerca las conclusiones del DCI, a
comprobar sus proposiciones, a validar y estandarizar aquellos procesos y formatos
que cumplían las especificaciones de calidad fijadas. Entre los temas más
comprometidos y que más debates suscitó estuvo el color. Se debatió acerca de qué
espacio de color elegir, qué gamut debía contemplar, si debía restringirse a la
especificación HDTV ITU-R BT.709-5, o por el contrario, contener una gama más
amplia como el fotoquímico. En ese momento, la tecnología más puntera en
proyección digital era DLP (“Digital Light processing”), que lideraba Texas Instruments,
y permitía un gamut de color intermedio entre el extenso del cine tradicional y el
reducido del HD. La decisión parecía clara, pero el DCI pensaba que la tecnología
acababa de nacer y que mejoras futuras llegarían incluso a sobrepasar al cine
tradicional (ojo porque actualmente la resolución digital 4K ya ha sobrepasado con
creces la definición del cine tradicional que vemos en la sala de cine, comparable a una
resolución HD), así que se tomó la decisión de abarcar el máximo espectro de color
posible. Pero ese espectro no puede lograrse con los primarios RGB, sino que tiene que
adoptar como primarios los valores teóricos propuestos por la comisión CIE. Esto
significa que se abarca todo el espectro de color visual del ojo humano, puesto que
incluso los primarios propuestos son virtuales y escapan del rango visible. El sistema
se llama XYZ, como los ejes del espacio que abarca, y fue definido en el estándar CIE
1931.

Representación 3D del espectro visible dentro del espacio de color XYZ. Dentro del
espectro visible estaría contenido dentro de un prisma recto el reducido espacio de
color RGB
La elección se basó también en detalles importantes: los valores son siempre positivos,
la componente Y representa fielmente la luminancia, es un sistema de coordenadas
robusto e independiente del dispositivo de representación (monitor o proyector) y la
transformación de las señales RGB al nuevo espacio resulta sencilla. Hay que hacer
notar que, aunque no seamos conscientes, trabajamos constantemente en espacios de
color transformados que no son el RGB que conocemos. Por ejemplo, la señal de vídeo
digital se trabaja en el espacio de color YCbCr. Es más, se utilizan espacios de color
transformados para facilitar el almacenamiento, el procesado digital y la optimización
del ancho de banda en transmisiones. Como las transformaciones las hacen los
equipos de registro o representación, para nosotros es siempre un proceso
transparente.
Sin embargo, el hecho de que el nuevo sistema elegido fuera tan utópico y abarcase
más allá incluso del espectro visible, era una navaja de doble filo que ocultaba el
problema del número de bits necesarios para una correcta visualización. Tuvo que
optarse por usar el límite máximo de calidad, por encima del umbral de percepción, y
estandarizar el uso de los 12 bits lineales. Además, como mejora al sistema de 12 bits,
se aplicó una corrección previa de gamma con índice 2.6, puesto que era la que mejor
se adapta a las condiciones de visualización humanas (modulación en función de la
luminancia) y que ayudaba a que la codificación de los valores fuera más eficiente. De
esta forma, DCI y DC28 del SMPTE quedaron conformes con los resultados dejando
incluso espacio para mejoras de calidad futuras. Ahora que sabemos un poco más
acerca de las decisiones y de cómo nos afectan, podemos ponernos manos a la obra
con nuestros fotogramas.
Volviendo de nuevo al proceso de masterizado, hay que implementar un proceso para
transformar los valores R’G’B’ a los X’Y’Z’ finales. La notación marca con una comilla
los valores modificados por una corrección gamma no lineal. El proceso constaría de
una linealización de los valores a RGB, aplicación de una matriz de mapeado 3×3 para
obtener los valores XYZ y aplicar de nuevo la corrección gamma para X’Y’Z’. No nos
volvamos locos con la terminología usada, puesto que no tendremos que usar
matrices, sino simples operaciones de producto y suma.
Las ecuaciones que rigen la transformación de RGB a XYZ (muy parecidas a las que
conocemos del sistema en componentes YUV) se basan en la ponderación de los
valores RGB. Esta es la interpretación de la famosa matriz en término de productos y
sumas simples:
X = 0.49•R + 0.31•G + 0.20•B
Y = 0.17697•R + 0.81240•G + 0.01063•B
Z = 0.00•R + 0.01•G + 0.99•B
Donde Y, como ya hemos explicado antes, representa la luminancia de forma fiel al
sistema triestímulo del ojo humano. A diferencia de otros sistemas, XYZ no pretende
mediante este cambio de coordenadas proteger la información, optimizar la
codificación de fuente ni reducir el ancho de banda del canal; solo pretende abarcar el
máximo de opciones posibles e independizarse de los medios de captación y
proyección.

Proceso de conversión de color desde fuentes no lineales al espacio de color
establecido por el DCI
Uno de los pasos más discutidos es la linealización de los valores R’G’B’ de los
fotogramas. Debemos, para ello, saber la gamma original de nuestro sistema para
poder aplicar su función inversa. Si nuestra cámara era HD y su curva gamma era la
estándar HDTV -ITU-R BT.709-5 de producción, posiblemente nos sea útil saber que
la gamma de esta configuración es 2.2 (en el antiguo PAL se recomendaba el valor
2.8). En el caso de haber trabajado con una modificación de la curva gamma (lo más
usual si queríamos obtener un look cine directo en cámara) o con curvas
“hypergamma” o “S-log”, lo mejor será realizar unas pruebas previas con varios
valores, partiendo centrados en el valor 0.45, aunque seguramente, ningún valor sea
óptimo puesto que las curvas manuales (con ajustes de black gamma y/o de knee) y
las específicas de determinadas cámaras, como las nombradas anteriormente, no
tienen un valor de gamma único en toda la curva sino que son fórmulas complejas
difíciles de invertir.
Si la imagen se ha postproducido, el valor gamma a tener en cuenta será el del monitor
broadcast de trabajo o el proyector usado para evaluar los resultados, mientras no se
haya usado ninguna LUT de previsualización. El tema aquí se simplifica, pues para
monitores broadcast HDTV o de ordenador (este valor coincide con el usado en los
últimos equipos de Apple y Windows) el valor es el estandarizado para producción en
2.2, mientras que para proyectores DLP suele ser normal el valor 2.6. Esto también es
importante para quienes trabajan solo con medios infográficos (CGI), que han aplicado
curvas de contraste a sus imágenes para que se visualicen correctamente en el monitor
de trabajo. Todos ellos, coloristas e infografistas, deben tener en cuenta una
corrección extra de la gamma de entre 1.1 y 1.2 si su trabajo se ha desarrollado con
luz ambiente, de forma que se compense el brillo de la imagen para su visualización
correcta en salas de cines.
Existen varios métodos y herramientas para convertir de nuestras fuentes RGB al nuevo
XYZ. No vamos a entrar a detallar el manejo de cada herramienta porque escapa de la
intención de este artículo, pero la propia ayuda de los programas supone una fuente
de información valiosa para conseguir con éxito la conversión del espacio de color.
Hay que distinguir entre asignar un espacio de color y convertir a un espacio de color.
La diferencia está en que cuando asignamos un espacio de color a una imagen, este
dato se inserta como metadatos. Sin embargo, cuando convertimos a un espacio de
color, estamos efectivamente modificando sus colores al nuevo espacio de trabajo.
Existe una excepción a lo anterior: si asignamos un espacio de trabajo y el formato del
archivo de destino no acepta espacios de color incrustados (como en el caso particular
del DPX), se realiza la conversión de la imagen al nuevo espacio, puesto que éste no se
puede almacenar como metadato.
Entre las herramientas más conocidas están, por ejemplo, Adobe PhotoShop y
AfterEffects, que tienen entre sus espacios de color el específico propuesto por el DCI
llamado “DCDM X’Y’Z’(Gamma 2.6) 5900K (by Adobe)”. Apple, sin embargo, no
implementa en sus herramientas Shake y Color la conversión automática (o asistida) a
espacio de color. Esto nos obliga a usar en Color los pasos Primary In, Color FX y
Primary Out para aplicar, en este orden, la linealización, la mezcla RGB y la no
linealidad de gamma final. En Shake usaremos los nodos de Gamma y de ColorX,
ajustando también todos los parámetros de forma manual. Esto nos facilita el cambio
de parámetros, así como el ajuste fino del proceso de conversión, a diferencia del
cambio automático de Adobe donde no disponemos de capacidad de modificar los
ajustes preestablecidos (especialmente la gamma de la fuente original). En cambio, la
complejidad del proceso aumenta hasta volverse casi un tema de especialista puesto
que no se trata de un proceso trivial.
Para superar todos los inconvenientes anteriores y con el ánimo de facilitar el proceso
combinando la facilidad de uso, la parametrización personalizada y el cambio a 12bits
lineales necesario para cumplir con las especificaciones DCI, se ha desarrollado una
herramienta de software libre multiplataforma (para Windows, MAC OS X, Linux…)
llamada ImageMagick. Y no es que haga magia, pero después de saber todo lo que
hace y lo fácil que es de usar, así nos lo parecerá.
La instalación en Windows es muy fácil. Basta con descargar el ejecutable binario desde
la página Web de este proyecto: www.imagemagick.org ¡Gratis y así de fácil! Para MAC
OS X se trata de una instalación un poco más complicada y requiere tener instalada la
versión 3.1.4 o superior (esto ya dependerá de la versión de nuestro sistema operativo)
de XCode que viene en el DVD 2 de instalación de nuestro MAC, o que puede
descargarse en http://connect.apple.com/ (hay que registrarse en Apple). Tras esta
instalación, y para facilitar el proceso, debemos valernos de la aplicación MacPorts,
también basada en software libre y que nos va a permitir instalar en nuestra máquina
MAC multitud de programas de forma asistida. Tras la instalación del paquete
MacPorts (.pkg) sólo nos queda abrir la aplicación “Terminal” y teclear “sudo port -v
selfupdate” sin comillas, pulsar la tecla “enter”, tras lo que deberemos poner nuestra
contraseña y volver a pulsar “enter” para terminar la instalación. Ahora ya está nuestro
sistema preparado para la instalación de cualquier programa que deseemos entre
todos los disponibles. Nosotros de momento solo instalaremos ImageMagick
ejecutando en la aplicación “Terminal” y sin las comillas “sudo port install
ImageMagick”, igual que antes. El proceso de instalación, que durará unos minutos,
debe terminar sin errores. Tras todo esto, queda claro que puede llegar a ser
interesante para los usuarios MAC Intel tener una partición Windows en su sistema
para ejecutar ciertos programas. Se puede tener esto usando la aplicación Boot Camp
que Apple distribuye con todos sus máquinas actuales o bien pueden usarse
programas de máquina virtual como VMWare, Parallels, Wine Bottler, etc.
Vamos a dar unas mínimas nociones y la receta para trabajar con ImageMagick. Este
programa trabaja a nivel de comandos (como hemos visto antes, con “Terminal” en
MAC OS X y con “cmd” en Windows) y en vez de marcar casillas y opciones, debemos
escribir con exactitud lo que deseamos que haga para nosotros. Para ello usaremos un
comando específico con todos los parámetros. Vamos a ilustrar esto con un ejemplo
del comando (debe escribirse entero y como una frase seguida) que ejecuta el proceso
completo para todas las imágenes de un directorio. Podremos variar cualquiera de los
parámetros a voluntad antes de su ejecución para convertir otro formato de entrada,
imágenes de otro directorio, cambiar la gamma inversa o incluso los parámetros de la
matriz de color.
En Windows:
FOR %a in (C:\DCP\Imagenes_DPX_-RGB\*.dpx) DO convert %a -type TrueColor -alpha
Off -depth 12 -gamma 0.454545 -recolor “0.4123907993 0.3575843394
0.180487884 0.21226390059 0.7151686788 0.0721923154 0.01933081887
0.1191947798 0.9505321522″ -gamma 2.6 C:\DCP\Imagenes_TIF-F_XYZ\%~na.tif
Este comando, que debe ejecutarse estando en el directorio que contiene la aplicación
“convert.exe” de ImageMagick, convierte todas las imágenes DPX del directorio C:\DC-
P\Imagenes_DPX_RGB\ a 12 bits y formato RGB lineal y, posteriormente, a TIFF X’Y'Z’
con gamma 2.6 en el directorio C:\DCP\Imagenes_TIFF-_XYZ\ (que debemos crear
antes de usar el comando para que no devuelva un error).
En MAC OS X:
for image in *; do echo $image; convert $image -type TrueColor -alpha Off -depth 12
-gamma 0.454545 -recolor “0.4123907993 0.3575843394 0.180487884
0.21226390059 0.7151686788 0.0721923154 0.01933081887 0.1191947798
0.9505321522″ -gamma 2.6 ../Imagenes_TIFF_XYZ/$image.tif; done
Este comando, que debe ejecutarse estando en el directorio que contiene los
fotogramas a tratar, convierte todas las imágenes del directorio donde estemos a 12
bits y formato RGB lineal y, posteriormente, a TIFF X’Y'Z’ con gamma 2.6 en el
directorio Imagenes_TIFF_XYZ (que debemos crear fuera, pero al mismo nivel, del
directorio donde estamos antes de usar el comando para que no devuelva un error).
Entre los detalles de ambos comandos, observar que hemos elegido como gamma
inversa de la fuente original el valor 1/2.2 (0.454545) y que la matriz de color es
distinta a la indicada como la matriz de conversión básica. No es que sea diferente,
sino que hemos aplicado una pequeña corrección de los valores para adecuarnos a
nuestro entorno de trabajo real y acercarnos lo máximo posible a lo que puede
suceder en proyección. Como lo más normal es que todos nosotros usemos un
monitor calibrado durante el trabajo de ajuste de la imagen, a pesar de que su gamut
de color sea inferior al del proyector D-Cinema, tendremos que tener en cuenta todos
estos detalles para nuestra conversión de color. Tal y como define el anexo A del
SMPTE RP 176, si atendemos a las características de nuestro monitor y tenemos
además en cuenta los colores primarios y el valor del punto blanco del proyector de
referencia, obtendremos la NPM (matriz primaria de conversión normalizada) de RGB a
XYZ.
X = 0.4123907993•R + 0.3575843394•G + 0.180487884•B
Y = 0.21226390059•R + 0.7151686788•G + 0.0721923154•B
Z = 0.01933081887•R + 0.1191947798•G + 0.9505321522•B
Si hubiéramos trabajado en un entorno luminoso durante la corrección de color,
subjetivamente habríamos creado una imagen más brillante para compensar el exceso
de luz ambiente, y esto debemos compensarlo usando un valor entre 0.42 y 0.38 en la
linealización de la gamma en vez del valor 0.454545. Lo recomendable, de nuevo, es
realizar alguna prueba previa.
A partir de este momento tendremos unas imágenes con un color y contraste
diferentes que serán la fuente de nuestro siguiente paso de compresión. No hay que
preocuparse por el tono verdoso ni por el exceso de contraste, puesto que lo que está
ocurriendo es que el sistema no está interpretando bien los datos del espacio de color
de la imagen, de forma que representa RGB. Solo el proyector D-Cinema o alguna
herramienta de visionado como easyDCP Player (es de pago) harán una interpretación
correcta del color y de la gamma. Podríamos decir, llegados este punto, que tenemos
las fuentes (audio y fotogramas) del DCDM terminadas. El siguiente paso será la
compresión, que inicia la creación del DCP.
DCP, un acercamiento práctico al estándar de proyección
de cine (III)

FORMATEANDO LOS FOTOGRAMAS: TAMAÑO Y COMPRESIÓN
En este punto vamos realizar dos acciones necesarias para tener los fotogramas
terminados: adaptar la resolución (acción propia de DCDM) y la compresión de la
imagen (acción exclusiva del DCP). De esta forma solapamos el término del DCDM con
el inicio del DCP propiamente dicho. Vamos a explicar esto por partes.
La resolución más baja estandarizada por el DCI fue 2K (2048×1080 píxeles) para el
área contenedora de la imagen. Tras ésta vendría la 4K (4096×2160 píxeles) y
actualmente se espera la incorporación del tamaño 8K. Usar un formato superior a la
resolución de nuestra fuente no supone ninguna mejora de la calidad ni de las
posibilidades de distribución (todos los proyectores 4K interpolan fuentes 2K) y solo
supone un sobrecoste de tiempo, espacio y dinero.
Nosotros nos vamos a centrar en el formato de imagen nivel 3 (2K@24fps), que es el
más próximo a nuestra fuente HD. Dentro de este formato, la imagen en proyección
puede tener una de las dos posibles relaciones de aspecto aceptadas en D-Cinema:
2.39:1 (scope) o 1.85:1 (flat). Esto implica unas resoluciones de imagen de 2048×858
y de 1998×1080 respectivamente, siempre con píxeles con relación de aspecto
cuadrada (1:1). Lo lógico es no interpolar la imagen a un tamaño mayor, aunque
tengamos cacheada parte de la imagen de nuestro Full-HD para tener un área de
imagen cinemascope (tendríamos 1920×804 píxeles activos). Si interpolamos hasta
2048×858 para abarcar el máximo de pantalla, podemos tener problemas de
definición. Lo mejor será dejar nuestra imagen base HD 1920×1080 centrada sobre
uno de los formatos de proyección 2K, mapeada píxel a píxel. Así que, propiamente
dicho, no existe conformado de la imagen (puesto que esta se mantiene con su
resolución original), sino una incrustación de la imagen centrada dentro del
contenedor de imagen 2K. Eso es lo que hará la sentencia “border”: rellenar los bordes
con negro hasta alcanzar el tamaño de imagen necesario compatible con 2K. Debemos
escribir este código después de –gamma 2.6 y antes del directorio de salida del
comando ImageMagick que vimos en el apartado anterior (Imagen 1).

Imagen 1. bordercolor black -border 39×0. Imagen izquierda: imagen
Full-HD 1920×1080 original (16:9). Imagen derecha: incrustación de la
imagen dentro del contenedor de imagen flat 1998×1080 (1.85:1).
Si el área de nuestra imagen no ocupa el 16:9 original, es decir, estamos usando una
relación de aspecto diferente (cacheando parte de la imagen con negro) y estamos
convencidos de interpolar y extender nuestra imagen hasta ocupar uno de los dos
formatos de imagen activa posibles por completo, podemos hacerlo escribiendo una
de las siguientes sentencias después de –gamma 2.6 y antes del directorio de salida
del comando ImageMagick que vimos en el apartado anterior (Imagen 2).

Imagen 2. Para formato flat (1.85:1) completo: -crop 1920×1038+0+21
+repage -filter lagrange -define filter:support=2.0 -resize 1998×1080.
Imagen izquierda: imagen full-HD 1920×1080 original (16:9) con
marcas de 1.85:1. Imagen derecha: imagen recortada y ampliada a
formato flat 1998×1080 (1.85:1).
De una u otra forma, lo que obtenemos es un formato de imagen compatible con el
tamaño 2K (se iguala siempre una de las dimensiones), que contiene nuestra imagen
con la relación de aspecto de proyección correcta.
La compresión de la imagen es un tema ya muy debatido, estudiado y estandarizado.
Una imagen sin compresión con 2K de resolución y 12 bits por componente ocupa
unos 10 MB. Solo hay que pensar que a 24 fps el flujo sin compresión de D-Cinema
sería equivalente a unos 240 MB/s o casi 2Gbps (¡equivalente a 100 ADSLs de 20
Mbps!). La decisión de distribuir el material comprimido se tomó en base a la
necesidad de hacer un archivo de tamaño manejable, que cupiera en un disco duro de
la época (no existían los discos duros de 2TB en aquellos años, ¡menos mal!) y pudiera
enviarse por medios telemáticos (satélite, conexión de Internet…) reduciendo los
tiempos y los costes de distribución. Y todo ello sin sacrificar la calidad. Sabemos
(porque todos lo usamos en nuestra cámara de fotos digital, en Internet y en el móvil)
que el formato de compresión de imagen más extendido y alabado actualmente es el
JPEG. Posterior a éste apareció en el año 2000 el JPEG2000 (IEC/ISO 15444), una
mejora del estándar anterior con más posibilidades y que se adaptaba a las
necesidades del DCI: alta calidad y eficiencia de compresión, soporte de hasta16 bits
por componente sin submuestreo de color, capacidad de aceptar las resoluciones de
2K y 4K y, lo más importante, tratarse de un estándar abierto, de forma que pudiera
ser fácilmente implementado por los fabricantes de hardware de cine digital en sus
equipos de procesado de señal y en el futuro software de creación DCP. En verano de
2004, el DCI elegía definitivamente el JPEG2000 como su estándar de compresión.
Recordar que cualquier formato JPEG (original y versión 2000) siempre trabaja
descomponiendo las imágenes frecuencialmente y que, por lo tanto, el error de
codificación depende de las altas frecuencias (cantidad y densidad de zonas con alto
detalle) que contenga la imagen original. La mejora de JPEG2000 está en el uso de
wavelets en vez de la conocida transformada discreta del coseno (DCT). No vamos a
entrar en detalles matemáticos pero sí vamos a explicar sus bases funcionales. El JPEG
original basa su motor de compresión en la división de la imagen en bloques de 8×8
píxeles que posteriormente comprimía frecuencialmente. Esto supone la aparición de
errores de codificación (sobretodo en zonas de ruido, en negros y en regiones
degradadas sin detalle) en forma de macrobloques visibles para compresiones medias
y altas. Sin embargo, JPEG2000 no usa bloques de compresión sino que descompone
toda la imagen en bandas frecuenciales, de forma que cada vez se analiza la imagen
entera y así no se producen problemas de banding ni de macrobloques en la imagen.
Visualmente, el error apreciable es siempre menor (e incluso despreciable) que para el
JPEG original a igualdad de tamaño de archivo.

Imagen 3. Para formato scope (2.39:1) completo: -crop
1920×804+0+138 +repage -filter lagrange -define filter:support=2.0
-resize 2048×858. Imagen izquierda: imagen full-HD 1920×1080
original (16:9) con marcas de 2.35:1. Imagen derecha: imagen recortada
y ampliada a formato scope 2048×858 (2.35:1).
La compresión JPEG2000 es una compresión intra-frame o de imagen completa, que
no se ve afectada por las imágenes anteriores o posteriores como ocurre en MPEG.
JPEG2000 saca provecho de las limitaciones propias del sistema visual humano y de la
redundancia de información de cada imagen, de forma que puede optimizar los datos
hasta cierto nivel sin que el espectador detecte errores. El algoritmo base (basado solo
en la parte I de la especificación) implementa el CDF: una transformación wavelet
irreversible o, hablando llanamente, una compresión con pérdidas de información.
Suele emplearse el término “lossy” para describir estas compresiones con pérdidas de
información que, si bien no implican pérdidas visuales, en casos muy aislados sí que
han llegado a aparecer defectos tales como la falta de detalle o incluso imágenes
borrosas.
La tasa de datos más alta posible para imágenes de un DCP está establecida en
250Mbps. Esta velocidad de datos implica trabajar con compresiones lossy eficientes.
Si se baja la tasa de datos, el primer defecto que se observa es el de pérdida del detalle
llegando en casos extremos a borrosidad en las imágenes. La tasa crítica a partir de la
cual pueden aparecer defectos es un valor que depende directamente de las imágenes
originales y de sus características técnicas. Hay que tener en cuenta que la compresión
aplicada es altamente eficiente en cuanto a datos producidos, y usa una tasa de bits
variable (VBR) para optimizar el flujo final de salida. Esto se aplica en imágenes con
poco detalle original o fondos uniformes (como los títulos de crédito sobre fondo
negro), de tal forma que el archivo de salida ocupa muy poco espacio, mientras que
imágenes con mucho detalle fino se comprimen en archivos mucho más grandes
(hasta un máximo de 10.5 Mbits). En la práctica, tasas de DCP entre 80 y 160 Mbps
consiguen resultados igual de eficientes que el máximo de 250 Mbps comentado, de
forma que ahorramos espacio de almacenamiento igualando la calidad.
El formato de archivo elegido fue el JPEG2000 “codestream”, conocido con el formato
“.j2c”. Esto dignifica que no posee metadatos extra de información y que solo se
almacena la imagen en bruto codificada. Sin embargo, existe un pequeño problema y
es que se trata de una implementación versión 3 y no todas las herramientas son
compatibles con la generación de este tipo de .j2c. Por ejemplo, ¡el motor QuickTime
realiza exportaciones en este formato que posteriormente son incompatibles con el
servidor D-Cinema!
Me duele decirlo de nuevo, pero otra vez y tal como ocurría con ImageMagick, para
este paso requerimos de un programa de código abierto que, si no somos expertos en
línea de comandos durante su instalación, Windows se plantea como mejor alternativa.
Mientras que sobre este sistema operativo la instalación es fácil y sencilla, los usuarios
de MAC OS X han de dar una pincelada que pueda ayudar a tener esta herramienta
funcionando. Podemos instalar este software usando, de nuevo, MacPorts. Si esta
opción no nos funciona, sólo nos queda, aunque sea poco ortodoxa, descargarnos de
la red el archivo específico “openjpeg_v1_4_osx.tgz” (es la última versión) y
descomprimirlo para tener los ejecutables y las librerías completas que habrá que
copiar en los directorios adecuados: “image_to_j2k” lo copiamos al directorio donde
tengamos las imágenes TIFF X’Y’Z’, y desde el terminal y en modo comandos
ejecutamos lo siguiente:sudo cp /opt/local/lib/libtiff.3.dylib /usr/local/lib/ (nos
pedirá la contraseña de administrador para ejecutar el comando).
El comando explícito que debemos usar para la compresión de las imágenes será:
En Windows:
FOR %a in (C:\DCP\Imagenes_TIFF_XYZ\*.tif) DO image_to_j2k -cinema2K 24 -i %a -o
%a.j2c
Este comando, que debe ejecutarse estando en el directorio que contiene la aplicación
“image_to_j2k.exe”, convierte todas las imágenes TIFF del directorio
C:\DCP\Imagenes_TIFF-_XYZ\ al perfil 3 de JPEG2000 y los comprime en codestream
en el mismo directorio (debemos mover los archivos .j2c creados a un nuevo
directorio, por ejemplo, C:\DCP\Imágenes_J2C).
En MAC OS X:
for image in *; do echo $image; ./image_to_j2k -cinema2K 24 -i $image -o
$image.j2c; done
Este comando, que debe ejecutarse estando en el directorio que contiene los
fotogramas TIFF a tratar, convierte todas las imágenes del directorio donde estemos a
JPEG2000 compatible con la especificación del DCI en el mismo directorio (debemos
mover los archivos .j2c creados a un nuevo directorio, por ejemplo, Imágenes_J2C, en
el mismo nivel que los anteriores).
El proceso es lento (cada imagen requerirá entre medio segundo y dos segundos de
procesado) debido a que estamos codificando imágenes de más de 2 megapíxeles con
procesadores no dedicados. Esto conviene saberlo porque existen fabricantes que
venden tarjetas hardware especiales para la compresión JPEG2000 a alta velocidad e
incluso en tiempo real usando granjas de render (muchos ordenadores trabajando en
red como si fueran uno solo). Pero claro, esto tiene un coste elevado que solo
productoras fuertes pueden permitirse. Nosotros, a cambio, disponemos de tiempo y
paciencia para realizar el proceso, ¿verdad? El cálculo rápido es que el tiempo de
compresión puede llegar a ser de tantas horas como minutos tenga nuestra creación
audiovisual. Así, un largometraje puede tener al ordenador trabajando 100 horas, es
decir, ¡más de cuatro días seguidos!
DCP, un acercamiento práctico al estándar de
proyección de cine (IV)

Ya tenemos todos los materiales preparados en el formato correcto para nuestro
futuro DCP, las pistas de audio en calidad broadcast por separado y todos los
fotogramas a tamaño 2K comprimidos en JPEG2000 en codestream. Puesto que una
película está formada por miles de fotogramas y varias pistas de sonido, y esto
dificulta su manejo y entrega, hay que imponer un método de organización de los
datos en forma de archivos simples. Lo que tenemos que hacer es crear unos
“contenedores” de audio y vídeo de forma que todos los fotogramas estén contenidos
en un solo nuevo archivo y todos los audios contenidos en otro archivo nuevo. Estos
dos nuevos archivos se llaman, de forma genérica, “contenedores digitales” y es muy
común actualmente el uso del término anglosajón asset para referirse a este tipo de
archivos.
EMBOTELLANDO NUESTRA COSECHA: LOS CONTENEDORES DE MEDIOS
Para entender el concepto de archivo “contenedor” podemos recurrir al formato AVI
(Audio Video Interleaved) de los sistemas Windows, conocido por todos nosotros. Otro
ejemplo sería, más conocido por los usuarios de MAC, el formato MOV. Estos archivos
son independientes de los datos multimedia (entender multimedia como audio, vídeo,
subtítulos, sincronización,…) que contienen. Es por ello que un archivo .avi o .mov
puede contener un vídeo DivX con audio AAC o vídeo DV PAL con audio PCM o vídeo
MPEG2 con audio MP3, etc. Como podéis deducir, la sola extensión de un archivo
contenedor (.avi, .mov, .mp4, .mkv y .mxf entre otros) no da ninguna información
acerca de su contenido exacto sino de su compatibilidad con determinados sistemas
(operativos, de edición no lineal, de reproducción, de almacenamiento, de bases de
datos,…).
Usando contenedores facilitamos el trabajo entre sistemas pues detalla los parámetros
de cada dato multimedia contenido en él (llamados metadatos) permitiendo su correcta
interpretación y, lo más importante, la relación y sincronización que debe existir con el
resto de elementos contenidos.
El formato de archivo elegido por el consorcio DCI para los contenedores fue el
estandar abierto de intercambio de archivos SMPTE 377M llamado Media eXchange
Format (MXF). Su principal aplicación era permitir el intercambio de materiales entre
diferentes sistemas de televisión y actualmente está muy extendido su uso en sistemas
de edición no lineal, sobretodo desde la implantación en producción de las cámaras de
grabación en memorias de estado sólido (¡como si las cintas nunca hubieran sido
sólidas!).
La estructura de un MXF es a grandes rasgos (ver figura 1): una cabecera de archivo
donde se detalla a nivel de metadatos los elementos contenidos y su sincronización, el
cuerpo donde se encuentran los datos multimedia originales y una cola que cierra el
archivo. Su estructura es aproximadamente la de la figura 1.

El archivo MXF que contiene los fotogramas se denomina video track (pista de vídeo) y
el archivo que contiene los audios audio track (pista de audio). No debemos confundir
la pista de audio contenedora con las pistas de audio del sonido envolvente que
hicimos hace dos entregas en el paso 3. Los metadatos generales que proporciona un
archivo MXF para DCI son:
- identificador único
- tipo de archivo (imagen o sonido)
- descripción física del formato (píxeles activos horizontales y verticales)
- relación de aspecto (sólo para imagen)
- frecuencia de muestreo (sólo para audio)
- bits por muestra (sólo audio)
- número de canales (sólo audio)
- etiquetado de los canales (sólo audio)
- formato de datos (sólo audio)
- título normalizado de la producción
- inicio de los datos (mark in)
- final de los datos (mark out)
- duración de cada medio (en fotogramas)
- tasa de fotogramas
- sincronización interna.

Los datos contenidos en archivos MXF son almacenados usando una subdivisión en
tripletes de valores KLV (Key-Length-Value) como se observa en la figura 2. Se basa en
el uso de una clave (key) de identificación única de 16 bytes para cada triplete, una
indicación de la longitud (length) de los datos almacenados y los datos (value)
propiamente dichos. Esta forma de organizar los datos permite al decodificador
localizar rapidamente cualquier elemento específico dentro del archivo MXF, con tan
solo leer las claves. Además, esta estructura de archivo se diseñó para su descarga por
redes telemáticas, lo que al DCI le convenció pues una de las principales vías de
distribución que contemplaba era la descarga eficiente de los archivos DCP desde la
distribuidora a la sala de cine comercial directamente.
No vamos a entrar a desgranar más el archivo, sólo volver a incidir en que lo
materiales originales no se ven afectados -no hay recodificación ni cambio de
parámetros- de ninguna manera por este encapsulado e indexado sino que se
benefician del uso de los metadatos que van a permitir su correcta interpretación en
cualquier sistema compatible con MXF.

Pero, resulta que existen dos formatos MXF diferentes para crear un DCP y, cada uno,
con sus caracteríticas de interoperatibilidad. Los fomatos son SMPTE e Interop. De
Interop existen dos tipos –MPEG o JPEG en función de si están basados en un vídeo
MPEG2 o en secuencia de imágenes JPEG2000-, aunque la versión MPEG, usada hasta
hace poco, ya ha sido relegada al olvido. Actualmente, el formato más extendido es el
(JPEG) Interop DCP, mientras que desde abril de 2011 el estandar que se implantará y
que deberán además soportar todos los servidores de D-Cinema será el SMPTE DCP.
Además, existe la obligación para los exhibidores de mantener la compatibilidad
futura con los dos tipos de distribuciones de Interop para los DCP creados con
anterioridad a esa fecha. Hasta que llegue ese momento -que se alargará debido a que
las actualizaciones del firmware, o software del servidor, no son inmediatas-, habrá
que pensar en distribuir dos versiones de DCP contenidas en un mismo disco duro (las
llamadas versiones mixtas) o distribuir la versión correcta adaptada a cada servidor D-
Cinema. Actualmente (marzo 2011) tenemos la siguiente tabla (ver tabla 1) de
compatibilidad DCP para los principales fabricantes de servidores/reproductores D-
Cinema.
Mientras se homogeneiza el mercado, debemos tratar de entender ambos estándares
aunque, con toda probabilidad, cada uno de nosotros usará sólo uno de ellos debido a
los condicionantes propios del software -que veremos en el punto siguiente- o del
servidor de nuestro cine de confianza.
DCP, un acercamiento práctico al estándar de
proyección de cine (V)

Tras ver cómo es necesario crear contenedores de medios para facilitar el trabajo con
los fotogramas y los canales de audio, en este punto veremos cómo relacionar y llamar
en reproducción esos archivos. El “player” necesita saber para cada DCP qué archivos
tiene que reproducir a la vez (audio y fotogramas) y en qué orden. La manera de
indicar al reproductor esa información es mediante unos archivos específicos XML. Con
esto terminamos de ver la estructura de archivos del DCP y podremos pasar a
examinar las herramientas de masterización que nos van a facilitar la labor de creación
de nuestro paquete de proyección digital.
ETIQUETANDO NUESTRA MEJOR COSECHA: LOS DESCRIPTORES PARA EL SERVIDOR
La estructura más sencilla de un DCP (figura 1) contiene los dos archivos contenedores
MXF que vimos en el apartado anterior, uno de audio (audio track) y otro de vídeo
(video track). Además, aparecen cuatro archivos XML, donde dos de ellos son
VOLINDEX y ASSETMAP -los descriptores del contenido- y los otros dos son los
llamados PKL (Packaging List o listado del paquete) y CPL (Composition Playlist o lista
de reproducción).

Figura 1. Estructura de archivos DCP a nivel raíz –sin directorios- del disco duro.
El formato Interop DCP contiene una relación similar de archivos pero cambiando la
estructura y algunas referencias internas. Las diferencias son muy pequeñas pero
condicionantes en algunos servidores de medios, por eso algunas productoras han
creado discos DCP mixtos. Aunque existen múltiples opciones para una distribución
mixta, sólo dos de entre las posibles –“múltiples directorios de alto nivel” y “mapa dual
de elementos”- han sido validadas por el ISDCF (Inter-Society Digital Cinema Forum),
con preferencia a la primera de ellas (figura 2).

Figura 2. Estructura interna de los archivos para el modo mixto de DCP de múltiples
directorios de alto nivel.
Los archivos XML (eXtensible Markup Languaje) son archivos de texto plano -legible y
modificable por cualquier editor de texto- y estructurado -poseen una sintaxis propia
que facilita la identificación y acceso de los metadatos contenidos- que se usan para
intercambiar información básica entre sistemas. El idioma usado es el inglés, debido a
su expansión y a que es el idioma usado por defecto en el cine (¡no olvidemos que
Hollywood y el DCI son americanos!).
Los archivos XML necesarios en un DCP son, como hemos comentado antes, el
descriptor de la unidad de almacenamiento (VOLINDEX). El concepto de unidad o
volumen hay que entenderlo en sentido amplio y puede ser un disco duro externo, una
partición de éste o incluso, como hemos visto en los sistemas mixtos, un directorio.
Todas las identificaciones se realizan mediante la asignación de un número único y
especial (Universally Unique Identifier o UUID) a cada unidad, fichero y archivo. Esta
asignación permite, independientemente del nombre que tenga, marcar el elemento de
forma unívoca (podemos entenderlo como el DNI de cada ciudadano del país DCP). El
otro archivo descriptor es el mapa de los contenidos (ASSETMAP) del DCP. Aparte de
indicar qué archivos son los propios del DCP, apunta dónde se encuentran en la
estructura de archivos (su camino o path) e, igual que ocurría con VOLINDEX, refleja el
UUID de cada uno de ellos. Este archivo permite además que archivos muy grandes de
un DCP se encuentren repartidos es unidades diferentes, lo que se conoce como DCP
multivolumen, para lo cual indicará entre sus metadatos todos los VOLINDEX y sus
UUID que contienen los trozos del archivo dado. En resumen, ASSETMAP y VOLINDEX
serán los encargados de indicar al servidor de medios cómo se llaman y dónde se
encuentran todos los archivos que conforman ese DCP. Además, proveen el UUID de
cada elemento de forma que se comprueba que no falta ningún archivo y que éstos
son los que deberían ser y no otros, independientemente del nombre dado. Es el
primer paso en la ingesta del DCP.

Figura 3. Ejemplo de un archivo CPL básico de un DCP SMPTE.
Por otro lado, el PKL parece que tiene una función parecida a ASSETMAP y, en cierta
manera, la tiene: asegurar la integridad del DCP. Sin embargo, ahora veremos cómo se
complementan entre ellos y las funciones asignadas tan diferentes que tienen. El PKL
es el inventario de todos los archivos pertenecientes al DCP, con nombre, identificador
único y un dato muy importante: su hash. Así como el UUID es un valor muy grande
asignado aleatoriamente, el hash es un valor único pequeño, resultado de pasar el
archivo por una función matemática (algoritmo) conocida. Estos valores sirven para
detectar cualquier modificación, manipulación o error durante la transmisión (descarga
de red, transmisión satélite, copia desde una unidad) de un archivo. El servidor es el
encargado de calcular para cada archivo que copia del paquete DCP su valor hash y
luego compararlo con aquel proporcionado por el PKL, de forma que se comprueba la
integridad de los datos. Pero los metadatos del PKL alcanzan más allá, y entre ellos se
encuentra el autor del DCP (quien posee los derechos de explotación), el sistema
usado para la creación del paquete, etc.
El archivo CPL es la sesión de cine propiamente dicha, que puede ser para una película,
un cortometraje, un anuncio, un trailer o una secuencia de los anteriores. Como si de
una escaleta se tratara, indica a nivel interno cómo se relacionan los diferentes tracks
(audio, vídeo y subtítulos) y el orden de reproducción de éstos durante la sesión. Esto
se llama múltiplex temporal, es decir, una reproducción simultánea y sincronizada de
varios archivos –en este caso de los MXF de audio y vídeo- (figura 3). Un DCP puede
contener varios CPL y cada track puede ser referenciado por más de un CPL (figura 4).
Esto aporta flexibilidad y permite reducir el volumen de datos a transportar para
diferentes sesiones. De esta forma pueden crearse versiones de diferentes idiomas,
opción de sólo reproducir el trailer, incluso versiones extendidas y reducidas, todas en
un solo DCP.

Figura 4. Esquema de relación jerárquica de los archivos de un DCP. Podemos observar
además en este ejemplo que existen dos listas de reproducción, que hacen referencia a
un mismo video track, pero que usan archivos de audio diferentes (inglés o castellano).
Para cada reproducción se elegirá uno solo de los CPL existentes en el DCP.
LOS TRES MOSQUETEROS: ¡TODOS PARA UNO Y UNO PARA TODOS!
Después de ver la teoría que se oculta tras los archivos del DCP, ya es hora de
lanzarnos con conocimiento de causa a la creación del DCP propiamente dicho. Seguro
que durante todo el recorrido hemos pensado ¿porqué a nadie se le habrá ocurrido
juntar las herramientas vistas hasta ahora en un mismo entorno de creación de DCP?,
¿porqué no se ha realizado un programa visual que no requiera de la línea de
comandos? Todas estas plegarias se han hecho realidad. Por fin es tan fácil crear un
DCP como lo es un DVD o un Blu-Ray.
Es hora de analizar los paquetes de software libre que disponemos a día de hoy para
nuestro trabajo y los condicionantes que deberemos asumir antes de decantarnos por
una u otra solución. Son bastantes las herramientas disponibles para el trabajo de
crear DCPs y todas se basan en las mismas herramientas libres y licencias GPL que
hemos ido repasando poco a poco en los puntos anteriores. Del conocimiento de los
conceptos que se ocultaban en estas herramientas podremos extraer todo su
potencial, flexibilizarlas y adaptarlas a nuestro flujo de trabajo que, seguro, es
diferente y único para cada persona y producto audiovisual. De ahí que hayamos
querido dotar de las primeras entregas de una carga un poco más teórica que práctica.
Estos paquetes de software agrupan las múltiples herramientas de línea de comandos
bajo interfaces gráficas de usuario, más comúnmente conocidas como Graphical User
Interface o GUI. Éstas nos van a facilitar enormemente el trabajo: nos van a permitir
optimizar nuestro trabajo, nos van a ahorrar tiempo y nos van a hacer transparentes
muchos pasos complicados como la asignación de los UUID, usar correctamente la
convención de nombres para el título del producto -ContentTitleText de la figura 3-
establecida por el DCI, multiplexar u ordenar correctamente los canales de audio,
juntar ordenadamente la secuencia de fotogramas JPEG2000, etc. Todo el trabajo
“sucio” -una mezcla entre engorroso y delicado- está, en mayor o menor medida,
programado y automatizado, mientras siempre sepamos lo que estamos haciendo. Las
herramientas que vamos a ver han sido programadas con pasión y conocimiento, pero
con mayor o menor fortuna.
Nuestra función será elegir el software para este trabajo e indicarle correctamente los
parámetros necesarios para la creación de nuestro DCP que, normalmente, serán: el
directorio con nuestros fotogramas, los archivos de los correspondientes canales de
audio y el directorio donde almacenar los archivos MXF, XML y el DCP resultantes.
Incluso pueden usarse de forma modular o -ya veremos cuáles- usar solamente partes
de ellas como la compresión, la creación de los contenedores o la formación de los
archivos XML finales, en función de la personalización de nuestro flujo de trabajo.
Vamos a ver con detalle cuáles son, qué nos ofrecen y cómo se adaptan a nuestras
necesidades (ver también tabla 1):
- OpenCinemaTools (OCT) DCP Maker (v.1.1.2) es el más veterano y, a pesar de su
nombre terriblemente comercial, es un software libre que nos ayuda en la creación de
los archivos necesarios, totalmente compatibles con SMPTE DCP. Se puede usar en
línea de comandos con todos los sistemas operativos, pero posee como detalle una
GUI bajo Windows que facilita el trabajo con los ficheros. Sin embargo, a pesar del
beneficio aparente de su GUI, se trata de una herramienta que lamenta el paso del
tiempo y la falta de atención de sus creadores; tiene fallos de operación y actualmente
se encuentra sin soporte más allá de los foros de Internet. Sin embargo, funciona en
Windows y en MAC, permite velocidades de 24 y 25 fps y nos permite realizar pasos
tan importantes como la compresión JPEG2000. Para su descarga
http://www.opencinematools.org
- OpenDCP (ODCP) (v.0.19) es un software libre parecido a OpenCinemaTools pero
con más posibilidades, opciones, facilidad de uso y mantenimiento (¡fue actualizado el
20 de abril de este año!). Le diferencia respecto al resto de herramientas que se ha
desarrollado GUI para Windows y, atención, ¡otra idéntica para MAC OS X! . Es
compatible con todos los estándares y nos ayuda en la creación del DCP de forma
modular. Como contrapartida, de momento sólo acepta el formato TIFF para nuestros
fotogramas. Está en desarrollo que acepte próximamente .DPX y .PNG. Es el actual top
de la creación de DCP pues está diseñado para ser flexible y robusto. Para su descarga
http://code.google.com/-p/opendcp/
- Digital Cinema package Creator (DCPC) (v.1.4.3.5) es un software libre compatible
con ambos estándares MXF actuales. Es de desarrollo alemán -con traducción al
inglés- y posee una imagen muy similar a opencinematools pues posee una GUI bajo
Windows para su manejo que se corresponde fielmente con la anterior. Permite incluso
la conversión al espacio de color XYZ (hay que marcar la casilla correspondiente al
inicio del programa). Atención porque la compresión de los fotogramas a JPEG2000 no
es opcional y se ejecuta siempre. Como no todo podía ser perfecto, incluso a pesar de
su capacidad de trabajar con múltiples procesadores, la ejecución del programa falla
algunas veces. Acaba de ser actualizada este 15 de abril. Para su descarga
http://cinema.terminal-entry.de/
- Digital Cinema Package GUI (2DCP_GUI) es un software con interfaz Windows y
autoría alemana que, quizás, sea su mayor handicap… ¡no se entiende nada! Bromas
aparte –existen multitud de traductores que nos pueden ayudar a saber a qué se
refiere cada campo- el programa no comparte apariencia con ningunas de las GUI
vistas anteriormente. Permite la compresión JPEG2000, aplicar el espacio de color XYZ
a las imágenes y usar la potencia de múltiples procesadores de nuestros equipos. Para
su descarga www.mik-digital.de
- AS-DCP es una librería de implementación software libre para generar MXF
compatible con SMPTE e Interop. Todos los paquetes de software anteriores se basan
en esta librería, sólo que han sabido hacer su uso transparente al usuario y ya no
debemos caer de nuevo en el duro trabajo de la línea de comandos. Sin embargo, no
nos ayuda en la creación de las listas de reproducción (CPL) ni del PKL. Para su
descarga: http://www.as-dcp-lib.org
Lo ideal es, siempre, llegar a este punto con los deberes terminados en función del
software elegido y de nuestro flujo de trabajo. Tenemos dos posibles opciones:
controlado o asistido. Si lo que queremos es controlar nuestro flujo de trabajo de
principio a fin, tener flexibilidad y mantener la calidad máxima en cada paso, entonces
usaremos OCT DCP Maker, openDCP o la librería AS-DCP. Los dos primeros son
herramientas modulares y podemos usar, por ejemplo, sólo la ayuda en la creación de
los contenedores MXF y del empaquetado DCP final que son, quizás, los pasos que
más dificultad conllevan por la convención de nombres, títulos y UUID.
Sin embargo, si lo que deseamos es asistencia en cada paso (¡incluso de la conversión
de color XYZ y de la compresión JPEG2000!), entonces podemos ayudarnos de las
herramientas openDCP, DCPC o 2DCP_GUI. Por ejemplo, a la herramienta DCPC bastará
con indicarle el directorio donde guardamos los fotogramas en cualquiera de los
formatos que acepta esta herramienta (BMP, TIFF o DPX) para que nos automatice el
resto de pasos hasta la creación final del DCP en el directorio que le hayamos indicado.
Sin embargo, hay que tener en cuenta que algunos de los pasos se realizan siempre y,
en el caso concreto de 2DCP_GUI la conversión de color de los fotogramas se realiza
siempre. Otras herramientas poseen la capacidad de elegir como opciones la
corrección de color, la compresión JPEG2000, etc. (mejor ver la tabla 1). Queda
desterrado a partir de este momento, para aquellos usuarios menos expertos o que no
quieran complicarse más, el modo terminal (también llamado línea de comandos) que
vimos números atrás. Estoy seguro de que habrá muchos lectores a los que esta
noticia les va a animar a hacer su primer DCP.

Tabla 1. Herramientas de ayuda a la creación del DCP. * Para DCP 2D, para 3D la tasa
sube a 48fps (además, 60 fps es soportado por ODCP y 50 fps por DCPC).
Si en los puntos anteriores veíamos cómo los usuarios de Windows se veían claramente
beneficiados por las herramientas software desarrolladas y una instalación y manejo
más sencillos, tras la aparición de openDCP -con GUIs para Windows y para MAC OS X-
el tema parece que se invierte. Si en algo destaca Apple es por la estabilidad,
rendimiento y eficiencia de sus sistemas, que no es de extrañar pues está basado en
una distribución de Linux (concretamente en la FreeBSD). Dejándonos de anécdotas y
entrando al tema que nos interesa, vamos a comentar los campos de las cuatro GUI
disponibles, todas válidas bajo Windows y sólo una –openDCP- probada con éxito en
MAC OS X 10.5 (Leopard) y 10.6 (Snow Leopard). Elegiremos siempre el formato 2D (no
estereoscópico si nuestra producción no es 3D) y resolución 2K allí donde nos pida
datos acerca del formato de trabajo deseado.
En OCT identificamos con facilidad la función de cada campo que, si los comparamos
con los de DCPC, vemos que se parecen como dos gotas de agua. La única diferencia
apreciable es que DCPC usa como partida nuestros fotogramas sin compresión -sólo la
conversión al espacio de color XYZ es opcional- y nos obliga siempre a usar la
compresión propia JPEG2000 de este software si queremos hacer uso de él, mientras
que OCT tiene la opción de usar los fotogramas sin comprimir (campo “JPEG 2000
Encoding”) o los fotogramas finales (campo “MXF Wrapping”) ya preparados para
encapsular en MXF conforme al estándar SMPTE DCP. Al DCPC, a nivel de metadatos,
sólo le falta poder introducir la descripción del PKL y del ASSETMAP, que rellena de
forma automática con el dato del creador dado para el CPL.
AS-DCP representa el escalafón más bajo de las herramientas, sin embargo es la base
de la creación de los MXF y XML. Se trata de la librería de bajo nivel en la que se basan
el resto de productos y que solamente opera a nivel de línea de comandos. Es válida
tanto para MAC como para Linux como Windows, pero es complicada de manejar
debido al gran número de parámetros que hay que tener en cuenta.
Si el medio por el que nos movemos es MAC, nuestras opciones se reducen a tres:
openDCP, OCT y AS-DCP. Evidentemente aquí apostaremos al caballo ganador:
openDCP. Se trata del último software para creación de paquetes DCP y, con toda
seguridad, el más maduro, completo, estable y modular. Nos permite en tres sencillos
pasos (todos opcionales) obtener un DCP válido y estandarizado SMPTE bajo este
sistema operativo que siempre se había mantenido en el limbo en cuanto a soporte de
las herramientas de código abierto DCP. Ahora, por fin, podemos desde nuestro MAC
crear DCPs como los usuarios de Windows pero con mayor estabilidad en los procesos.
El único detalle es que el punto de partida de esta herramienta son fotogramas TIFF
(con cualquier profundidad de color). En breve, ha anunciado su creador, se ampliará la
aceptación de otros formatos de archivos gráficos como DPX.
NUESTRO MEJOR ALIADO: OPENDCP
Debido a sus características, vamos a centrarnos en explicar la herramienta openDCP,
válida para Windows y MAC. Antes de ejecutar este software debemos exportar a
fotogramas TIFF nuestro DSM para crear el DCDM definitivo. Si nuestro DSM tienen
más de 8 bits por muestra, es preferible exportar desde Adobe After Effects, Avid
Media Composer o Apple Shake con los ajustes apropiados de sus parámetros para
obtener una salida de secuencia TIFFs de 16 bits que respete la reproducción tonal de
nuestra fuente. Otra opción sería exportar nuestros fotogramas en DPX, que muchos
programas de edición ya contemplan como opción de exportación, y con ayuda de
ImageMagick convertir a TIFF 16 bits. Si no disponemos de estas herramientas,
exportaremos a secuencia TIFF sencilla de 8 bits por muestra desde nuestro programa
de edición o desde herramientas propias de compresión como Adobe Media Encoder,
Apple Compressor o MPEGStreamclip.
Podemos aprovechar la exportación de los fotogramas para escalar y recortar nuestro
DSM, en caso necesario, a los tamaños posibles de fotograma: flat (1998×1080 para
1,85:1) y scope (2048×858 para 2,39:1). No ganaremos en calidad de imagen pero sí
en aprovechamiento del área de proyección puesto que estos tamaños se adaptan a la
altura y a la anchura respectivamente del formato 2K. Haremos este procesado ahora
puesto que con esta herramienta posteriormente no habrá opciones de recorte de
imagen.
Ya podemos abrir el programa donde disponemos de tres pestañas que siguen el flujo
de trabajo ordenado: JPEG2000, MXF Creator y DCP Package. El primero de los pasos
comprime nuestros fotogramas TIFF al formato específico de JPEG2000 establecido por
el DCI. En este paso podemos realizar también la conversión de color XYZ. A diferencia
de cuando vimos este proceso con ImageMagick, ahora no sabemos el valor gamma de
linealización ni la matriz primaria normalizada (NPM) usados en la conversión ni
podemos adaptar ningún valor a nuestro entorno de trabajo.
Puede que nos interese recortar, reescalar y procesar la gamma y el color XYZ de
nuestros archivos con ImageMagick y comprimirlos con OpenJPEG (“image_to_j2k”) de
forma totalmente manual como vimos en entregas anteriores. O quizás sólo ejecutar la
conversión completa con ImageMagick pero realizar la compresión JPEG2000 con
ayuda de openDCP. Vemos que podemos hacer estos pasos de forma modular, incluso
hacer sólo aquellos que nos interesen. ¡Con este programa todo es posible!
La primera de las casillas nos pide rellenar los parámetros del codificador JPEG2000.
Debemos indicarle varios parámetros para que la compresión se realice con éxito:
- Encoder: el codificador a usar. Por defecto está “openJPEG”, tal y como habíamos
visto en la tercera entrega pero ahora de forma fácil y transparente para nosotros.
- Profile: el formato DCI. En nuestro caso “cinema 2K”, salvo que nuestro punto de
partida sea un material de Red One grabado en 4K (aunque la cámara no rinde más allá
de 3K reales).
- Frame rate: la tasa de fotogramas. A pesar de existir la opción de 25 fps, elegimos
24 para proyección 2D. De esta forma nos aseguramos compatibilidad con todos los
servidores del mercado. Si nuestro proyecto fuera 3D o estereoscópico, elegiríamos 48
fps (24 para cada ojo).
- Bandwidth: la tasa de datos máxima. Tener en cuenta que la calidad obtenida con
valores mayores de 160 Mb/s es indistinguible visualmente de 250 Mb/s. Reducir la
tasa de datos nos ayuda a ahorrar tiempo de procesamiento y espacio en disco duro.
- Threads: el número de hilos de CPU. Se refiere al uso de la capacidad de cálculo de
nuestra máquina y por defecto elige automáticamente el total de los núcleos/hilos
disponibles de los procesadores. Cuantos más hilos asignemos, más fotogramas
podrán procesarse en paralelo.
- XYZ Color Conversion: la conversión de color. A nuestra elección marcar o no, en
función del origen de nuestros fotogramas.
Tras esto, debemos señalar el directorio (Input Directory) donde habremos guardado
nuestros fotogramas TIFF y luego decirle el directorio (Output Directory) donde
queremos que nos almacene los fotogramas codificados en el nuevo formato .j2c. Ya
sólo nos quedaría pulsar el botón de convertir, que inicia la sesión. El Preview no nos
ha funcionado en ninguna de las versiones GUI ni en ningún sistema operativo; habrá
que esperar a la versión 0.2.
En pruebas de rendimiento de compresión a máxima tasa de datos (250 Mb/s) -con
conversión de color incluida- para un material de 20 minutos de duración, el tiempo
de procesado alcanzó las dos horas con un equipo con 16 núcleos Intel Xeon a 2,66
GHz. ¡Esto nos da un factor de 6:1 para un ordenador valorado en 6000 euros! A pesar
de la gran tasa de datos durante la lectura escritura de los archivos, el uso de discos
en configuración RAID 0 sólo puede mejorar estos tiempos levemente debido a que se
trata básicamente de un proceso de alta carga de CPU. Donde más vamos a notar la
reducción de los tiempos en este primer paso de la creación del DCP es invirtiendo en
un mayor número de procesadores con varios núcleos cada uno y, éstos, a la mayor
velocidad de reloj posible.
La segunda de las pestañas trabaja en la creación de los contenedores MXF de imagen
y sonido. La herramienta está diseñada para poder trabajar de forma compatible con
ambos estándares MXF: Interop y SMPTE. Nosotros elegiremos siempre SMPTE salvo
que nos indiquen desde el exhibidor que su servidor es sólo compatible Interop. Los
parámetros que debemos indicarle son:
- Source: el formato de nuestras fuentes comprimidas. El sistema necesita saber si le
vamos a proveer de fotogramas JPEG2000 (nuestra elección) o de un archivo único
MPEG2 (método en desuso).
- Package: formato de nuestros archivos contenedores: SMPTE o Interop.
- Frame Rate: la tasa de fotogramas. 24 en nuestro caso para proyección 2D.
- Stereo/5.1: canales de audio de la configuración del diseño sonoro: estereofónico
2.0 ó envolvente 5.1. Este punto es especialmente importante para aquellos que no
quieran simular una mezcla envolvente en postproducción y con tan solo exportar los
canales izquierdo (Left) y derecho (Right) desde su sistema de edición no lineal estarán
en disposición de crear su DCP. Sin embargo, recuerdo que en la segunda parte del
artículo, allá por marzo, explicábamos las razones de la necesidad de crear una mezcla
envolvente y los métodos para ello a partir de nuestro estéreo.
- Picture Input: directorio donde están los fotogramas JPEG2000.
- Sound Input: archivos de sonido de cada canal para la configuración de audio
elegida.
- Output Files: elegiremos el directorio y los nombres de los archivos video track y
audio track que se van a crear.
Cuando pulsemos el botón Create MXF, iniciará la creación del MXF de imagen o video
track copiando en un solo archivo y de forma ordenada e indexada los fotogramas
conforme a la estructura vista en la entrega TM Broadcast anterior. Atención, porque
tras completar la parte de imagen aparecerá un aviso que indica la finalización de la
creación del MXF de imagen y hasta que no aceptemos el mensaje no se iniciará la
creación del MXF de audio. Este proceso puede realizarse incluso con un portátil pues
ya no existen altas exigencias de CPU. La creación de cada contenedor no cuesta más
del tiempo total de la copia de sus archivos Input. Podemos comprobar cómo cada
archivo MXF ocupa en disco casi lo mismo que el directorio que contenía nuestras
fuentes. En este proceso sí es recomendable disponer de discos en configuración RAID
0 o, en su defecto, trabajar con un disco duro en lectura y con otro en escritura, bien
internos en diferentes bahías, bien externos con conexiones de alta velocidad como
SATA, USB 3.0 ó Firewire 800. En nuestras pruebas, el tiempo arrojado trabajando con
discos duros externos Firewire 800 ha sido la mitad del invertido en la compresión
JPEG2000.
DCP, un acercamiento práctico al estándar de
proyección de cine (VI)

El último paso asistido en la creación de nuestro DCP es completar el resto de archivos
necesarios del paquete y que complementan y aseguran la integridad de los archivos
contenedores MXF creados en el paso anterior. No vamos a seguir el orden lógico de
las cosas sino que vamos a saltar rápidamente a cargar en el programa los archivos
MXF recién creados. Y ahora veréis el por qué de tomarnos esta molestia tan
apresuradamente. El área de Reel, indicamos donde dice Picture el archivo MXF video
track, y donde dice Sound el archivo MXF audio track. Ahora, atención a los campo de
la duración de nuestro archivos en fotogramas (frames) que, automáticamente, nos va
a indicar. Estos valores deberían coincidir exactamente. El problema radica en que si
no coinciden no podremos continuar con la creación del DCP puesto que ambos
archivos deben reproducirse simultáneamente multiplexados en el tiempo.
Si la diferencia es mayor que un fotograma, debemos revisar nuestras fuentes y
conversiones, puesto que en algún punto del proceso hemos introducido de forma
involuntaria algún error. Quizás en el muestreo del audio o al exportar a 24 fps.
Tenemos que volver atrás y repetir los pasos en la creación del DSM y de nuestras
fotogramas y canales de sonido.
Si la diferencia es igual a un fotograma, el error se debe al redondeo de conversión de
muestras de audio a fotogramas. Esto se traduce en un error de cola o, lo que es lo
mismo, en una diferencia en los tiempos de finalización entre nuestros tracks MXF.
Tenemos dos opciones posibles para remediar esta diferencia y poder continuar, la
solución buena y una solución de urgencia. La mejor manera de reparar este pequeño
error es trabajando con los fotogramas JPEG2000. Como sabemos que se trata de que
sobra o falta un fotograma lo que haremos será eso: borrar el último fotograma (en
caso de ser el video track, 1 frame mayor) o copiar el último fotograma y renombrarlo
con la numeración siguiente (en caso de ser el video track, 1 frame menor). Lo más
habitual –y hasta ahora lo que hemos visto siempre- es que nos encontremos con una
duración mayor del video track. Tras este reajuste del número de fotogramas de cola,
tenemos que volver a crear el archivo MXF de imagen, pero solamente este (rellenando
solamente los campos de Picture).
La solución de urgencia se basa en indicar el Entry Point del track de mayor duración
como 1. De esta forma, y como si de un capítulo de un DVD se tratara, iniciará la
reproducción síncrona de uno de los archivos en el segundo frame, de forma que la
duración total será un fotograma menos y así lo indicará el programa en el campo
Duration, permitiéndonos continuar el proceso. Esta solución la aplicaremos en el caso
extremo de no tener tiempo de repetir la exportación MXF de vídeo que hemos visto
antes.
Tras aplicar una de las dos soluciones anteriores, ya podemos ponernos manos a la
obra con el último paso en la creación del DCP. Vamos a ver el resto de los detalles de
este paso que se resumen en completar correctamente los datos acerca de nuestro
material, abriendo la pantalla desde el botón de Title Generator (figura 9). Es una
pantalla que nos ayudará a la creación del título técnico (tal y como se reflejará en el
archivo CPL, ver figura 3) según la convención de títulos del DCI -ver detalles en
http://www.digitalcinemanamingconvention.com-, de forma totalmente transparente
para nosotros y que podremos ir revisando en el campo superior de Content Title (éste
se autocompleta) conforme vayamos completando los campos inferiores.
La curiosidad de esta convención es que surgió a raíz de que muchas máquinas
servidoras de cine digital solamente ofrecían 40 caracteres de información del
producto como máximo. Para títulos largos –imaginad por ejemplo “El Señor de los
Anillos: las dos Torres”- esto suponía un problema para el exhibidor cuyo display
indicaba “El_Señor_de_los_Anillos:_las_dos_Torres_” y no podía acceder al resto de
indicadores técnicos del producto. Así no podía saber si el DCP que estaba insertando
en el servidor de medios era el trailer o la película entera, si la proyección debía ser
flat (1,85:1) o scope (2,39:1), el idioma, etc. Para evitar estos problemas, se tomó la
decisión de reducir el campo del título a unos escasos 14 caracteres como máximo, de
forma que el resto de 26 caracteres se usaran para ofrecer información útil del
producto. Vamos a revisar los parámetros de interés:
- Film Title: es el título de nuestra creación. El único problema es que no acepta más
de 14 caracteres… ¡recordadlo!
- Type: para indicar si es una película completa (feature), un cortometraje (short),…
- Aspect ratio: la relación de aspecto de la imagen con F (flat), S (scope) o C
(complete)
- Langage Audio: el idioma de los diálogos
- Langage Subtitle: el idioma de los subtítulos (si los hubiera, sino lo podemos dejar
en blanco o elegir XX)
- Territory: se refiere el territorio donde sería legal la proyección de este material. Lo
dejaremos en blanco en caso de no tener restricciones, aunque el código internacional
es INT.
- Rating: revisión de la admisión de los materiales por edades. Por ejemplo, para
materiales sin restricciones elegiremos AA (All Ages) dentro de Europa y G (General
Admission) para Estados Unidos.
- Audio Type: elegiremos entre sin sonido, 2.0 y 5.1 (lo máximo que nos permite
este software, aunque en menú estén las opciones de 6.1 y 7.1).
- Narrative: una pista de audio especial para personas con discapacidad visual.
- Resolution: la resolución de nuestros fotogramas (2K en nuestro caso).
- Studio: todos los estudios grandes tienen su código. Aquí dejar en blanco.
- Facility: la herramienta software usada para la creación del DCP. Podemos en un
impulso poner la opción única de openDCP aunque lo mejor, por no cerrarnos puertas
(existen exhibidores que se niegan a proyectar materiales que hayan sido creados con
herramientas de código abierto, en un claro caso de favoritismo hacia las grandes
productoras, distribuidoras y ejecutores de licencias de software propietario), será
dejarlo en blanco.
- 3D Specs: sólo para indicaciones estereoscópicas. Dejarlo en blanco o indicar 2D.
- Package Type: para indicar si es versión original o no. Y esto no indica si está
doblada o no, con subtítulos o no, sino que sirve para indicar si el material está
completo (para una película, corto o documental con todos sus contenidos) o se trata
de materiales suplementarios (más audios, subtítulos, etc.). En nuestro caso nos
interesa entregar los materiales completos en un solo DCP y marcar la opción OV.
Una vez que hemos completado los campos, aceptamos y rellenamos el resto de los
campos:
- Annotation: una nota descriptiva del DCP
- Issuer: la persona responsable de la autoría del DCP, es decir, vuestro nombre y
apellidos.
- Rating: igual que en la pantalla anterior.
- Kind: tipo de producción. Exactamente igual que el campo Type de la pantalla
anterior.
- Add XML Digital Signatures: se trata de aportar seguridad y robustez a los archivos
CPL y PKL mediante la incorporación de una firma de seguridad digital. De esta forma
se puede detectar cualquier modificación que sufra el CPL o el resto de elementos del
DCP. Su uso está condicionado a la encriptación de los contendores MXF y, por lo
tanto, no lo usaremos en nuestros DCPs.
Ya en el área de Reel, encontramos un nuevo campo de Annotation que sirve para
indicar la bobina a la que pertenece el DCP. Intentaremos evitar usar bobinas
separadas para nuestros DCPs haciendo que todo el contenido necesario esté incluído
en un solo empaquetado de cine digital, de forma que nuestros DCPs sean Original
Version (OV).
El resto es tan fácil como elegir los contendores MXF de Picture y Sound y los
subtítulos si los hubiéramos generado. Sobre los subtítulos solamente comentar el
formato estandarizado hoy por el DCI es el SMPTE que, sin embargo, todavía no está
totalmente soportado por los exhibidores y actualmente aún es preferible usar el
estándar TI Cinecanvas hasta que se extienda a todas las salas el soporte a SMPTE.
Cinecanvas es también un archivo de texto XML cuyos metadatos, basados en la
duración total del material, son muy parecidos a los que hemos usado en otras
herramientas de autoría de DVD pero con la sintaxis propia de XML (figura 10).
A partir de este momento en que tenemos todas las fuentes finales para el DCP
cargadas e indicando la misma duración en frames, podemos lanzar el proceso final
pulsando el botón Create DCP. Esto inicia el análisis de nuestros archivos MXF y en la
creación de los archivos necesarios para completar el paquete: los cuatro archivos XML
-CPL, PKL, VOLINDEX y ASSETMAP-. De igual forma se generan y asignan en memoria
del sistema los UUID y se producen los valores hash para cada elemento del paquete.
Es un proceso que tardará varios minutos y variará en función del tamaño de nuestros
contenedores. Al final de este procesado, aparecerá una ventana de exploración de
archivos donde debemos indicar dónde queremos guardar los archivos resultantes.
Tenemos que crear un directorio vacío donde almacenar temporalmente el DCP
maestro -se crean todos los archivos XML necesarios y además se copian los
contenedores MXF- con seguridad. Y nada mejor para guardar nuestro master DCP que
un sistema RAID 1 ó RAID 5 externo. Una vez que termina el guardado los archivos,
una ventanita emergente nos avisará de ello. Enhorabuena, hemos terminado con éxito
el proceso de creación de todos los archivos y ahora solamente nos queda copiar este
DCP al disco duro que vamos a preparar para distribución.
COPIA DE DISTRIBUCIÓN: ENVIANDO EL DCP
Ya tenemos el proceso de openDCP finalizado sin errores de ejecución. La pregunta es:
¿cómo llevo mi DCP a la sala de exhibición?, ¿qué requisitos técnicos debo cumplir
para que sea aceptado?, ¿lo puedo llevar mi pendrive?, ¿debo dejar una copia en cada
sala?, ¿y una copia a cada exhibidor?, ¿qué garantías tengo de que no acabe en alguna
página de descargas de Internet? Vamos a intentar responder a todas estas cuestiones.
Desde nuestra copia master realizaremos el resto de copias de distribución en discos
duros que previamente habremos preparado. Más tarde veremos cuáles y cómo.
Nuestra copia de distribución no se va a ver penalizada ni por el número de copias que
realicemos, ni por la marca de disco duro, ni por el número de pases de exhibición -
polvo, manchas, ralladuras, rotura de perforaciones,…- ni por el paso del tiempo. A
cambio de eso, cualquier copia fraudulenta será de tanta calidad como su original. Son
las fortalezas y debilidades de la Era Digital.
El transporte de los DCPs se puede realizar de muchas y variadas formas. Puede
enviarse por medios telemáticos como enlaces satélite dedicados, redes de
conmutación de circuitos o Internet, pero también puede hacerse en medios físicos
como un disco duro externo, una memoria USB de estado sólido como un pendrive o
en DVD. El mayor handicap radica en los tiempos y costes asociados al envío.
Tengamos en cuenta los siguientes datos del tamaño típico de una película con sus
anuncios previos y materiales extra (tabla 2).
Donde podemos ver el tamaño en Gigabytes que tendrán los archivos finales MXF (los
archivos XML tienen un valor despreciable comparados con los contenedores). Esto
hace en unos casos inviable (conexiones de Internet), en otros muy costoso (satélite o
circuitos conmutados), el uso de redes telemáticas para la distribución de los paquetes
DCP. Sale más barato enviar los materiales en un disco duro de la capacidad adecuada.
Para calcular el tamaño, hay que tener en cuenta que el formateo del disco duro hace
perder alrededor del 10% de la capacidad declarada por el fabricante, así lo más
recomendable será elegir una capacidad del disco duro comercial de al menos un 20%
mayor al tamaño de nuestro directorio donde guardamos el DCP completo (última
columna de la tabla 2).

Tabla 2. Tamaño típico de un DCP de 3 horas de duración total para varias tasas de
datos. El sonido propuesto es de 6 pistas (5.1) a 48KHz y 24 bits. Nota: 1GB = 1000
MB = 8000 Mb.
El servidor D-Cinema, del cual hemos hablado muy poquito aunque se ha nombrado
cientos de veces, es a efectos prácticos un ordenador personal, pero un poco más
especial. Bajo una pariencia sencilla, se esconde una máquina reproductora muy
potente, con un sistema Linux específicamente desarrollado para esta tarea que se
encuentra embebido –no está en un disco duro sino en una memoria de estado sólido
flash/EEPROM- en el sistema. De esta forma se proporciona un arranque rápido y
seguro, con una protección frente a escritura y modificaciones accidentales. El sistema,
con formato rack 19”, ocupa tres unidades de altura y dispone de pantalla táctil para el
manejo de sus funciones. El corazón del reproductor está formado por una tarjeta de
vídeo dedicada y especialmente potente que alimenta al proyector con la señal 2K o
4K. Suele estar conectado a un sistema de alimentación ininterrumpida industrial que
ofrece protección frente a cortes de alimentación. Además, el sistema posee dos
fuentes de alimentación, una de ellas redundante, para no tener que detener el servicio
en caso de incidencia eléctrica. Para el almacenamiento de los DCPs, dispone de un
sistema SAN (Storage Area Network) basado en un RAID 5 formado por, al menos, tres
discos duros de igual capacidad –normalmente 500 GB-. Es actualmente la mejor
opción entre seguridad para los datos (puede funcionar sin problemas con un disco
duro estropeado, que debe ser reemplazado lo antes posible), eficiencia (inutiliza
debido a la redundancia de datos un tercio del espacio total), rendimiento en lectura
(buena tasa de reproducción, no así en escritura) y coste (es la implementación más
asequible tras RAID 1). Lo más normal es que la capacidad disponible de este sistema
de almacenamiento pueda albergar hasta tres películas de 3 horas –un total de 1 TB
libre-.
La ISDCF plantea como requisito mínimo indispensable que este servidor de medios
ofrezca al menos un lector DVD (puede ser externo USB), una conexión de datos USB
2.0 (480 Mbps) y, de forma complementaria y no excluyente para equipos futuros, una
conexión eSATA (3Gbps). Esta decisión ha sido motivada por la aparición de este nuevo
interfaz –SATA- en equipos profesionales y domésticos, incluso en discos duros
externos económicos. De esta forma se mantiene la compatibilidad USB con todos los
dispositivos pero se incentiva la implantación de nuevos interfaces de alta velocidad en
aquellos equipos donde sea posible, de forma que se reduzcan notablemente los
tiempos de ingesta.
Para la ingesta del DCP distribuído en disco duro -que es el caso más sencillo y
extendido- existen dos métodos, igual de válidos pero diferentes en coste. La más
extendida entre los grandes exhibidores es la forma metodológica de cajas de discos
duros de 3,5” hot-swap (intercambio en caliente o, en palabras llanas, sin necesidad
de tener que apagar el sistema servidor para su conexión/desconexión) preparadas
para soportes especiales de bahía de 5,25”, todo de la marca Cru Dataport -más
concretamente el modelo DX-115-. La caja se inserta en una bahía libre que le
proporcionaba conexión de datos, alimentación interna y seguridad de llave física. Al
momento el nuevo DCP es reconocido por el sistema servidor D-Cinema y se presenta
la opción de copiar el contenido al almacenamiento interno a alta velocidad.
La otra forma, que surgió con las necesidades (por ejemplo, para equipos que no
disponían de bahías preparadas), los adelantos tecnológicos (mejores y más rápidos
interfaces de datos) y el paso del tiempo (reducción de costes), era introducir esa
misma caja con el disco duro hot-swap en una MoveDock Adapter que no es sino un
interfaz externo USB/eSATA que permite la conexión entre el disco y el sistema (ver
figura 11) pero que necesita alimentación externa de 12 voltios. Al momento de
encender nuestro disco externo, el nuevo DCP es reconocido por el sistema servidor
D-Cinema y se presenta la opción de copiar el contenido al almacenamiento interno a
la velocidad máxima posible.
Este es el sistema actual más extendido para la distribución física de los DCPs pero
evolucionado hacia medios de bajo coste como son los actuales discos duros externos
con interfaz USB 2.0 disponibles en cualquier gran superficie comercial o Internet a
precios realmente asequibles –el precio del TB es ya inferior a 50 euros-, sobretodo
ahora que no se ven incrementados con el canon digital de la SGAE. Si el tamaño
requerido por nuestro DCP es pequeño –anuncio, videoclip, cortometraje, etc.- existe
la posibilidad de hacer la entrega en un pendrive USB de la capacidad adecuada o
incluso en DVD (de una sola capa o 4.7 GB).
El transporte de este disco duro se realiza en maletas protectoras del estilo Pelican
HD-1406 -muy adecuada por sus proporciones y por su interior protector de espuma
foam antiestática-, que poseen un tamaño correcto para el disco duro y sus accesorios
(alimentación y cables), además de tener protección ESD (ElectroStatic Discharge o
descarga electroestática grave, que puede afectar a los datos contenidos en discos
duros y elementos sensibles), ser muy manejables, robustas frente a golpes e
impermeables. A pesar de que las recomendaciones de la ISDCF instan a que los
exhibidores dispongan de cables de datos y alimentación, es conveniente que nosotros
nos desplacemos siempre con los nuestros bajo el brazo (en la maleta). En el caso del
pendrive, con nuestro bolsillo y mucho ojo con los cacos será suficiente. Lo mejor de
este sistema de entrega es que es físico y, para funcionar, se realiza siempre la ingesta
al sistema servidor de los medios. Esto libera nuestro medio de distribución –disco
duro hot-swap, externo o pendrive- tras la ingesta para llevarlo a otro exhibidor,
guardarlo o formatearlo para otro uso.
Las distribuidoras comerciales aseguran sus copias de distribución contra duplicados o
reproducciones ilegales encriptando sus contenidos. La encriptación afecta sólo a los
contenedores MXF -audio y vídeo-, tal y como reflejamos en el apartado donde
estudiábamos su estructura interna. Se usan llaves digitales especiales -códigos
criptográficos- basados en el estándar AES, con una longitud de cadena de 128 bits.
Tras la encriptación del DCP, se producen los KDM (Key Delivery Message) desde la
distribuidora que es básicamente la clave AES complementaria (para desencriptar el
DCP) y las fechas de autorización para su explotación. Para ello se requiere una clave
de encriptación RSA del equipo D-Cinema servidor donde se reproducirá el DCP. Esta
clave RSA para ocultar la clave AES es única para cada equipo D-Cinema, que dispone
de la clave desencriptadora RSA en formato hardware (de forma interna y segura:
inaccesible desde su fabricación y si se intenta acceder a ella ¡se borra!). Se genera en
exclusiva y para cada servidor de medios D-Cinema un KDM –de unos pocos kilobytes-
que puede enviarse fácilmente al exhibidor por e-mail, en un USB, etc. El servidor D-
Cinema sólo podrá reproducir el contenido del DCP encriptado cuando se inserte el
KDM exclusivamente para él. De esta manera sólo es necesario generar un DCP
encriptado, que puede distribuirse a todas las salas, y un KDM para cada cliente.
Las copias fílmicas tradicionales, una vez terminados sus días de explotación, son
almacenadas por el exhibidor o devueltas al distribuidor quien las almacena (o
destruye si la copia está muy deteriorada y existen otras de mayor calidad). Ahora, una
de las problemáticas del DCP encriptado es que tiene caducidad -una vez superadas
las fechas de reproducción o fuera del equipamiento para el que fue encriptado, no
puede ser nunca más reproducido- y esto tiene repercusión en la perduración de los
nuevos materiales digitales. Por ello, blindar con KDM un DCP también significa su
sentencia de muerte. De ahí lo que comentábamos en nuestra primera entrega:
guardar nuestro DSM con cuidado, que por algo lo llamamos en su día “Master”.
FORMATO DEL HDD: PREPARANDO EL DISCO DURO
La preparación del disco duro y la copia de los contenidos es el punto final de nuestro
camino. De nada sirve tener un DCP que da error en la ingesta del servidor D-Cinema
o que, simplemente, no es reconocido por el sistema por diferencias en el formato.
Vamos a intentar arrojar un poco de luz sobre estos términos.
Tras ver el formato interno de los datos de los archivos que conforman el DCP, ahora
tenemos que ver el formato sobre el que se almacenarán, el formato físico del medio.
No es lo mismo un poema escrito sobre la arena de una playa que el mismo poema
escrito en un documento PDF. Ambos dicen lo mismo pero su soporte es diferente y
sus posibilidades muy distintas. Los medios que acerquemos al exhibidor para su
ingesta, deben tener uno de los formatos estandarizados por el DCI y apoyados por la
ISDCF: UDF (sólo para los DVDs) y Ext3 (formatos extendidos en las plataformas Linux).

Tabla 3. Relación entre medios y formatos físicos.
Tenemos además (ver tabla 3) dos formatos de Microsoft -FAT y NTFS- que son
legibles por la totalidad de los servidores D-Cinema por estar basados en Linux. El
formato FAT (hablamos del 16 bits) no es recomendable por dos motivos: su
incapacidad de albergar archivos mayores a 2GB (se correspondería con un DCP de
¡sólo 1 minuto! de material a máxima calidad) y su falta de robustez (podemos perder
los datos). NTFS es, sin embargo, un sistema robusto aunque propietario de Windows.
No es recomendable usar ninguno de estos dos formatos salvo que se esté 100%
seguro de la compatibilidad y se hayan hecho previamente pruebas.
Así que no quedan muchas opciones y empezamos a temernos lo peor… ¡cuando
parecía que todo lo malo ya había pasado!. Sí, amigos, tenemos que usar Linux para
poder formatear nuestros medios en Ext3 (el formato Ext2, menos reciente y sin
journaling, también está aceptado). Gracias a los avances de nuestros compañeros
informáticos, hoy en día no tenemos que instalar Linux para poder disfrutar de alguna
de sus más conocidas distribuciones. Son las llamadas distribuciones LiveCD, un CD
que permite arrancar el ordenador con el sistema operativo Linux sin instalar nada
pues se ejecutará en memoria RAM. Una de las mejores y más extendidas
distribuciones es Ubuntu. Podemos descargar el archivo ISO (para grabar a un DVD)
desde la siguiente dirección donde además, están todos los posibles pasos explicados:
http://www.ubuntu.com/download/ubuntu/download
Una vez que tenemos nuestro CD grabado podemos reiniciar nuestro sistema para que
arranque desde la unidad CD. En sistemas Windows ocurrirá automáticamente, sino
habrá que revisar la configuración de la BIOS. En MAC, con procesadores Intel, es tan
sencillo como pulsar la tecla “Alt” durante el arranque y cuando salgan las opciones en
pantalla, elegir el CD. Tras arrancar cualquiera de los sistemas anteriores, esperaremos
a que aparezca la pantalla donde se pide “Try Ubuntu” o “Install Ubuntu”. Elegiremos la
primera, probar Ubuntu (botón bajo la imagen del CD), de forma que el sistema no se
instalará pero nos permitirá trabajar en memoria del sistema con todas sus
posibilidades.
Tras el inicio aparecerá un sistema operativo. Ya podemos iniciar el proceso de
formateo de las unidades para DCP:
1. Conectar nuestras unidades (discos duros externos o memoras USB) que serán
rápidamente reconocidas de forma totalmente automática por nuestro sistema.
2. Cerraremos todas las ventanas de exploración que aparecerán cada vez que
conectemos una nueva unidad.
3. Ir al menú superior y pinchar sobre: “System” > “Administration” > “Disk Utility”
que nos abrirá una ventana para el manejo de todas nuestras unidades del sistema,
tanto internas como externas.
4. En la ventana de exploración de las unidades, a la izquierda, pinchamos sobre la
que queramos preparar.
5. Nos aparece la información relacionada con esa unidad en el área derecha de la
ventana, donde debemos pulsar sobre “Unmount Volume”, de forma que la unidad sea
accesible para formateo.
6. Es el momento del fomateo de la unidad: pulsamos sobre “Format Drive” y
elegimos la opción de esquema Master Boot record (MBR).
7. Ahora debemos crear una única partición pulsando sobre “Create Partition”
teniendo en cuenta que debe ocupar todo el espacio disponible de la unidad (es la
opción que sale por defecto) y usar el tipo Ext3. El nombre de la partición es libre
aunque es recomendable que tenga relación con el título del DCP. Marcamos “Take
ownership…” y desmarcamos “Encrypt…”. El proceso tardará unos minutos en función
del tamaño de la unidad.
8. Terminado el proceso, pulsamos en “Edit Partition” solo para comprobar que el
tipo de formato se corresponde con Linux (0×83) -valor HEX de Linux Ext3-.
Si está todo correcto podemos pasar a usar esta unidad pulsando el botón “Mount
Volume” y a copiar el master DCP que teníamos en el disco duro externo. Lo haremos
desde este sistema Linux debido a que es capaz de leer todos los formatos, ya sean de
Windows (FAT y NTFS) o MAC (Mac OS Extended/Plus HFS+). Terminada la copia de los
6 archivos (ASSETMAP, VOLINDEX, UUID_CPL, UUID_PKL y dos MXF), podemos repetir el
proceso anterior con otra unidad o terminar y apagar el sistema.
Enhorabuena si has llegado hasta aquí. Hemos terminado el proceso y ya sólo nos
queda pasarle un test y/o probar directamente en sala. Para ello, daremos antes unas
indicaciones de aspectos a tener en cuenta en esta prueba para evaluar nuestro recien
nacido transfer digital y decidir si tenemos que repetir algún paso del proceso o, en
cambio, ya podemos concertar una cita con el exhibidor para realizar un pase público.
POSICIONAMIENTO DE LOS EXHIBIDORES
El acercamiento de la masterización de DCPs –generación de transfers digitales- a
pequeñas productoras y realizadores independientes, abre nuevas posibilidades de
negocio al exhibidor y más posibilidades de visibilidad de unos materiales que,
muchas veces, quedaban relegados al olvido o a una tímida difusión por Internet.
Se abren nuevas oportunidades para el cine independiente de bajo presupuesto que se
ve revitalizado por la posibilidad de compartir gastos de exhibición y que incentiva la
creación de nuevas productoras. Para el exhibidor, estas iniciativas representan
rentabilizar sus salas, equipos de proyección y personal, al poder rellenar huecos de
programación y así dar continuidad de uso, incluso en matinales. Otra ventaja, ésta
indirecta y válida para ambos extremos, es que los cines se están convirtiendo en
centros de concentración del ocio y la cultura, con la publicidad en medios de
comunicación que se obtiene.
Hemos preguntado a varios exhibidores nacionales e internacionales, recientemente
reconvertidos al sistema digital, su opinión acerca de la expansión que está teniendo la
masterización DCP y en el futuro que prevén en unos años. Éste es el resumen de sus
impresiones.
“Nosotros estamos abiertos a estudiar cualquier tipo de proposición. Esto nos abre
nuevas posibilidades a todos. Nosotros ya estamos preparados.”
“Podemos estar orgullosos de no haber dicho nunca no a ninguna petición. Estamos
dispuestos a estudiar cada caso en particular y a ayudar a jóvenes realizadores en la
medida de nuestras posibilidades.”
Hemos encontrado en estas nuevas salas proyectores 2K -ampliables a 4K
intercambiando su placa 3-chips DLP- de las marcas NEC y Christie, así como
“escaladores” en casi todas las salas visitadas. El escalador permite proyectar en sala
otras fuentes HD como discos Blu-Ray (HDMI), DVD (video compuesto), entradas
digitales de ordenador (DVI), etc. adaptándolas al proyector. La proyección digital no
está todavía copando las salas más grandes sino que está haciendo su introducción en
salas pequeñas –aforo entre 50 y 120 butacas con pantallas de 6 a 8 metros- y
medianas –aforos entre 120 y 380 butacas con pantallas de 8 a 16 metros-.
Los precios de las salas con proyección D-Cinema varían en función del aforo (no del
total de gente que acuda sino del total de la sala, se llene o no). Además, los precios
pueden verse incrementados si para la proyección se elimina un pase comercial ya
programado. Lo normal es que los precios más asequibles sean los matinales, tras
ellos los de tardes de lunes a jueves, y los más caros en fin de semana. Los precios
netos aproximados que se nos han indicado para la cesión de una sala D-Cinema 2K,
todo su aforo y un tiempo de proyección de 2 horas son los que se indican en la tabla
4.
Con estos precios podemos hacernos a la idea de nuestras posibilidades de llegar a
una sala comercial y exhibir nuestra creación en las condiciones óptimas. Los
materiales en 3D tienen un recargo del 25% debido al uso necesario de gafas
espaciales entre los asistentes. Para los precios exactos, debes ponerte en contacto
con el exhibidor que desees, explicarle que no se trata de una película del circuito
comercial (esto sería del todo ilegal) y cerrar las condiciones particulares. Hemos visto
casos de ayuda a la promoción de realizadores noveles que han pasado por la sala sin
coste alguno; muchos exhibidores son conscientes de la situación actual del panorama
audiovisual.
Ya ha ocurrido en Madrid, donde un grupo de realizadores independientes se ha
reunido en torno a una asociación para poder exhibir sus obras –normalmente
cortometrajes- en salas comerciales digitales. De esta forma pueden afrontar el coste
que supone una sala mediana (380 butacas) de estas características al repartirse la
carga económica entre los participantes de cada evento en función de la duración de
cada obra. Por ejemplo, el coste de un cortometraje 2D de de 20 minutos supone un
coste de exhibición conjunto de aproximadamente 100 euros.
Los exhibidores nacionales no nos han impuesto ninguna condición especial en los
materiales entregados, salvo que se rijan por la normativa del DCI. Sin embargo, sí nos
hemos encontrado con condiciones propias de cines europeos para todos los
materiales de exhibición. El caso más claro es el de Cineplex Media, que exige que
todo contenido esté precedido por una cabecera y terminado con una cola. Se trata de
un patrón de sincronización interno basado en unos fotogramas y un pitido de
referencia. Podemos implementar esta cabecera y colas en nuestro sistema de edición
no lineal e insertarlo en la línea de tiempos fácilmente. Pasamos a detallar los
requerimientos (ver figura 14).
1. Una cabecera antes del primer fotograma consistente en:
1.1. 10 fotogramas de TimeCode
1.2. 10 fotogramas negros
1.3. 145 fotogramas de cuenta atrás (pitido con el último fotograma)
1.4. 47 fotogramas negros
2. Una cola después del último fotograma del material consistente en:
2.1. 47 fotogramas negros
2.2. 145 fotogramas de cuenta atrás (pitido con el primer fotograma)
Para terminar, unas notas técnicas que debéis tener en cuenta durante la producción
de vuestro transfer digital, antes de ser exhibido, que permitirán minimizar las fases
de prueba/error y ser más eficientes en la creación de vuestros DCPs con una calidad
similar a los materiales comerciales actuales.

Tabla 4. Listado de precios promedio de cesión de salas en función del aforo.
RECOMENDACIONES Y NOTAS ACERCA DE LA CALIDAD
1. Calibrar nuestro monitor HD –ya sea un TFT o un monitor broadcast-
correctamente. Recordar que su gamma es 2.2.
2. Si proyectamos en la sala de corrección de color con un proyector HD ó 2K,
recordar que su gamma calibrada debe ser igual a 2.6 (siguiendo el estándar DCI).
3. Comprobar los materiales generados en cada paso.
4. Recordar las resoluciones posibles a las que debemos ceñirnos con nuestras
fuentes HD: nativo HD (1920×1080), flat ó 1,85:1 (1998×1080) y scope ó 2,39:1
(2048×858).
5. Si disponemos de una sala de audio acondicionada y equipada correctamente,
debemos usar 85dB de referencia para la mezcla.
6. El audio debe tener un valor de referencia de -20 dbFS.
7. El loudness máximo no podrá superar el valor de 82dB LEQ (visto en el número de
abril de TM Broadcast) para los anuncios.
8. Comprobar la coincidencia de fotogramas con la duración en frames de nuestra
pista de sonido DSM.
9. Comprobar el DCP final con la versión de evaluación de “EasyDCP Player” del
Instituto Fraunhofer. Hacer especial atención al “check file hashes” que no es otra cosa
que comprobar la integridad de nuestro DCP y de que ningún archivo está corrupto.
10. Tener en cuenta que los servidores Doremi y Sony aceptan -además del formato
Linux Ext3- el formato de disco duro NTFS, propio de sistemas Windows.
11. Etiquetar correctamente el disco duro con los datos importantes siempre visibles.
Es posible copiar y pegar con una etiqueta el “ContentTitleText” completo, sino indicar:
11.1. Título
11.2. Relación de aspecto de la imagen
11.3. Resolución
11.4. Idioma y subtítulos asociados (si los hubiera)
12. Siempre hacer una prueba de proyección completa de nuestro transfer digital,
previa al envío del DCP donde comprobar que todo está correcto y acorde a lo
esperado. Vigilaremos especialmente:
12.1. la definición
Digital Cinema Initiatives
Digital Cinema Initiatives es un consorcio que apareció en marzo de 2002, cuyos miembros
fundadores fueron los siete mayores estudios de cine estadounidenses. Estos son: Disney, Fox,
MGM, Paramount, Sony Pictures Entertainment,Universal y Warner Bros.
Cómo Surgió
Su razón de ser fue y es llenar el vacío existente hasta el momento en cuanto a normas
en el ámbito del Cine Digital. En 2005 la DCI publica sus primeras recomendaciones
técnicas para las películas digitales con las especificaciones técnicas sobre formato de
archivo, transmisión, almacenamiento temporal y proyección.
Especificaciones Generales
Las especificaciones técnicas se dividen en cuatro categorías distintas, por orden
descendente de calidad. La categoría más alta corresponde a las pantallas de cine de más
de 15 metros de ancho mientras que la más baja se refiere a la proyección de material en
lugares públicos. El formato de compresión de imágenes adoptado es el JPEG 2000 y no
el MPEG-2 aunque este último sigue siendo utilizado para la proyección digital D-
Cinema y los DVD (con una compresión más fuerte, lo cual resulta en una calidad más
baja). En la siguiente tabla vemos las diferencias básicas de ambos formatos:
MÉTODO DE
COMPRESIÓN
ÍNDICE DE
COMPRESIÓN
RESOLUCIÓN
DE COLOR
RESOLUCIÓN
ESPACIAL
ACCESO
ALEATORIO A
UNA IMAGEN
MÁXIMO
RENDIMIENTO
MPEG-2 20:1 8 bits/elemento
1920x1080(std)
2048x1080(no std)
Difícil Garantizado
JPEG 2000 10:1
8 ó 10 bits+
Espacio XYZ
/elemento
1920x1080(std)
2048x1080
+x4K(no std)
Fácil No Garantizado
Las recomendaciones del DCI, tales como una resolución mínima de 2048 píxeles por
línea (equivalente a una resolución de 2K), una cadencia de 24 a 48 imágenes por
segundo y una profundidad colorimétrica de 12 bits.
Especificaciones Técnicas Básicas
Arquitecturas


Estructura: jeraquía para imágenes de 2k y 4k.
El D-cinema es un término que ha acabado haciendo referencia a películas comerciales
de gran presupuesto en las salas, con un sistema de presentación de alta calidad
(servidor + proyector) que cumple con los estándares y especificaciones globales
aprobados y ofrece una imagen que iguala o mejora la de una copia cero de 35mm. Los
equipos de almacenamiento y proyección (Sistema de Presentación) se han diseñado
específicamente para utilizarse con películas de cine. La película digital que el
exhibidor recibirá del distribuidor se llama DCP (Paquete completo Digital para su
proyección en Salas). El DCP es el archivo o conjunto de archivos comprimidos y
cifrados que engloban el contenido (la película digital) y su información asociada. El
DCP y el sistema de sala utilizarán una Estructura de Imagen Jerárquica, tanto para
archivos de resolución 2K como para 4K, por lo que los estudios pueden elegir entregar
copias/archivos de DCP tanto de 2K como de 4K, y pueden utilizarse tanto los
proyectores de uno como de otro tipo, tal y como se muestra en el siguiente gráfico.
Esto implica que todos los servidores serán capaces de almacenar un DCP comprimido
de 2K o 4K de resolución. Los servidores para proyectores de 2K serán capaces de
extraer y proyectar archivos de 2K de resolución a partir de archivos de DCP de 2K o
4K. Los servidores para proyectores 4K podrán proyectar el DCP completo de 4K,
mientras que son capaces de reclasificar un DCP que contenga solamente un archivo de
2K.
Formato de Imagen y Escaneo
En el escaneo, se reparte la lectura de un fotograma completo de 35mm en trozos de 3
micras, obteniendo así una cantidad de información por fotograma de 4K. De esta
forma:
 La conversión de fotoquímico de 35mm a digital con un escáner a 3 micras produce
4096 píxeles horizontales x 3112 píxeles verticales, lo cual equivale a 4K, que son
realmente 12 millones de píxeles o megapíxeles.
 La conversión de fotoquímico de 35mm a digital con un escáner a 6 micras produce
2048 píxeles horizontales x 1556 píxeles verticales, lo cual equivale a 2K, que son
realmente 3 megapíxeles.
 La transferencia de cine digital DCI de 4K y una matriz de proyección de 4096 x 2160,
son 8,8 megapíxeles.
 La transferencia de cine digital DCI de 2K y una matriz de proyección de 2048 x 1080,
son 2,2 megapíxeles.
 Una tarjeta gráfica de PC de 1.3K en los primeros proyectores de cine digital de 1280
por 1024 píxeles, son 1,3 megapíxeles (utilizado con lentes anamórficas para pantalla
ancha)
Proceso de masterización
El D-cinema se puede almacenar en servidores 4K (4096x2160) o en servidores 2K
(2048x1080). La tabla muestra los números que se emplean:
NIVELES
Nº PÍXELES
HORIZONTALES
Nº PÍXELES
VERTICALES
RELACIÓN DE
ASPECTO
RELAC. ASPECTO
PÍXEL
1 4096 1714 2:39 1:1
2 3996 2160 1:85 1:1
1 2048 858 2:39 1:1
2 1998 1080 1:85 1:1
Preparar la DSM (Fuente Original Digitalizada)hoy en día puede tener uno de estos dos
enfoques:
 Contenedor 2048 x 1080, basado en archivo (Digital Intermediate or Film Scan).
Aunque este es un ‘verdadero 2K’ se puede ver que el contenedor al completo no se
ha llenado.
 Contenedor 1920 x 1080 basado en tiempo real, la película se transfiere al disco duro
desde una máquina de Telecine. El color se corrige utilizando un proyector de Cine
Digital y una salida de archivo en formato DSM. En este caso, la señal será más
probable en formato componente con intensidad de bit limitada a 10 bits.
Sistema de proyección


Sistema de Almacenamiento y Proyección Digital.
Los principales formatos de imagen utilizables para pantalla ancha son los definidos por
DCI (2K y 4K). Cuando las imágenes se proyectan es posible que sea necesario realizar
algún ajuste. Si el formato original del proyector es diferente del formato de la imagen,
habrá que proceder a ajustarlo. Si el formato de proyección original tiene que actualizar
todos los píxeles simultáneamente, y si la imagen está entrelazada, será necesario llevar
a cabo en algún momento del procesamiento un desentrelazado o procesamiento de la
tasa de velocidad.
[editar] Compresión y Almacenamiento
Cuando hablamos de la distribución de contenidos a los cines, hay que tener en cuenta
tres grandes áreas técnicas: primero, los formatos de compresión para elementos de
imagen y sonido (incluyendo audio no comprimido); segundo, el formato de
almacenamiento, que actúa como servidor para las series de elementos comprimidos y
metadatos asociados; y, en tercer lugar, el esquema de codificación aplicado. La
distribución de Cine Digital incluye el proceso de transmisión de películas a salas de
cine y su consiguiente proyección. Por tanto, la compresión de los datos es necesaria
para reducir el coste y el tiempo de transmisión y almacenamiento de películas.
Esfuerzos conjuntos han hecho que la DCI recomendara una solución tecnológica para
la distribución basada en el desarrollo de JPEG2000, que es un ejemplo típico de
compresión intra-fotograma. Los fabricantes de sistemas de cine han difundido
diferentes formatos de almacenamiento y desde DCI se recomienda almacenamiento de
imagen, audio junto con almacenamiento con claves de seguridad. Éstas son distribuidas
en un mensaje corto codificado llamado KDM o Key Delivery Message (mensaje de
distribución en clave).
Especificaciones Técnicas Avanzadas
Certificados
D-Cinema recomienda la criptografía asimétrica. Equivalentemente a la criptografía
simétrica que usa la misma clave para cifrar y descifrar datos, en este caso existen dos
claves. Así, la clave usada para cifrar datos no servirá para descifrar esos datos. Las
claves son distribuidas bajo metadatos que describen la persona u organismo que
compra esa clave privada. El estándar que lo define es el X.509 de la norma ITU. Al
certificado también se añade una firma digital normalmente diferente a la clave privada
y se usa para verificar la autenticidad de certificado. La autentificación del certificado es
pues, recursiva: en vez de verificar que el certificado es válido, se debe descifrar la
firma usando la clave privada. La información del certificado está en formato legible.
Ésta servirá para validar el certificado y los mensajes de distribución de clave KDM
(Key Delivery Messages) mediante la comparación de los valores de salida de ambos.
Mensajes clave KDM (Key Delivery Messages)
Estos mensajes de distribución de clave están en formato XML debido a que estos
ficheros pueden contener otros formatos distintos. La principal unidad de datos
almacenada en el documento es el elemento XML cuya función es dar información de la
totalidad del documento y de su estructura compuesta por subelementos. La firma XML
es un estándar para crear y verificar firmas digitales en documentos XML. Ésta permite
validar la lista de reproducción, la lista de paquetes y los mensajes KDM. De este modo
se sabe si el documento fue realmente firmado por la parte identificada que adjunta en el
mismo. También permite saber si el documento ha sido modificado o dañado desde que
fue firmado. Los mensajes KDM en un documento XML contienen la información
cifrada necesaria para reproducir una composición o lista de reproducción. KDM es un
tipo de ETM (Extra-Theater Message). Para la autentificación de los mensajes KDM se
recorrerán varios campos como en número de serie, fecha de inicio y fin de la
validación, elemento inicial del mensaje, tipo de mensaje, texto descriptivo del mensaje
KDM…
Formato de los paquetes para D-Cinema
Los ficheros de pistas de D-Cinema y las listas de reproducción tienen unos
identificadores llamados UUIDs. Cuando se escriben los paquetes en un volumen de
una unidad de disco, se crea una cabecera que incluye el tamaño y la localización de
cada fichero dentro del paquete. Cada volumen tiene un índice en forma de fichero para
diferenciarlos en distribuciones de volúmenes múltiples. Tanto la cabecera como los
índices de volumen son fichero XML. La lista de paquete también es un documento
XML que especifica el contenido de un paquete D-Cinema. Contiene el UUID, el tipo
de fichero y un mensaje que sitúa cada fichero en el paquete. Esta información se usa
para asegurarse que todos los ficheros implicados han sido incluidos sin modificar o
corromper en el transporte. La lista de paquete lleva la siguiente información:
identificador, fecha, entidad u organismo, software o sistema con el que se generó,
descripción del contenido de paquete en un fichero de texto legible…
Características comunes de seguridad
Los procedimientos de seguridad son de 2 tipos: Seguridad en el procesado de bloque y
seguridad de comunicaciones Intra-Theaters y reporte periódico.
 Seguridad en el procesado de bloque.- Se verifica que cada bloque transporta
exactamente un certificado D-Cinema y que el certificado es correcto, Éste lleva un
nombre común cuya misión es identificar el dispositivo físico. (Por ejemplo un número
de serie). El certificado del dispositivo vendrá de fábrica. Además el bloque debe llevar
incorporado un módulo de protección que evita el acceso a la circuitería interna
detectando y grabando en este módulo, las posibles manipulaciones.
 En cada sesión, una vez empezada la comunicación, se debe verificar que todos los
bloques están configurados de forma reconocible. Se mantendrá una comunicación
permanente durante toda la sesión a través de una red Ethernet. Por otro lado, el
módulo de seguridad de bloque proporciona una verificación periódica que hará más
robusta la comunicación a través de reportes en forma de documento XML en cada
bloque. El preámbulo de estos reportes identifica el dispositivo y lleva incorporada una
secuencia de grabaciones de seguridad que pueden ser firmas electrónicas.
Media Block (MD)
Los MD añaden seguridad al bloque y abarca comprobaciones y descifrado de todo tipo
de formatos de sonido e imagen. Las comprobaciones son de SM (Security Manager),
de LE (Link Encryptor) y de reloj y tiempo.
 SM detecta y reinicia los playback. Procesa la imagen esperada integrada en un pack
de metadatos para detectar y reiniciar desviaciones del fichero imagen y de la
secuencia de cuadros esperada. También graba las comprobaciones de los cuadros en
el caso de que estas se lleven a cabo en tiempo real. Para el sonido se realizara un
proceso equivalente al de los cuadros de imagen y también se comprueban y graban
las tramas de sonido en caso de procesado en tiempo real.
 Las comprobaciones de LE sólo se realizan a sistemas que usen este tipo de cifrado. Se
comprueba que para el playback, el contenido no está cifrado. Entonces SM asume
directamente que todo está listo para la reproducción en el proyector.
 En la sección de reloj y tiempo se describen los requerimientos generales de tiempo en
el sistema de proyección y de sus dispositivos individuales. Todos los requerimientos
son aplicables a SM. En el ajuste de reloj, se verifica que mantiene la sincronización
entre auditorios, exhibidores. Este reloj se puede ajustar con un offset máximo de 6
minutos siendo su resolución de un segundo.
Se puede reproducir la imagen independientemente del sonido (y viceversa) con un
decodificador JPEG2000. Este decoder soporta imágenes de 2K y 4K con una
frecuencia de muestreo de 24 a 48 cuadros por segundo. Los colores se representan con
una profundidad de 12 bits/muestra. Las velocidades y resoluciones de cuadro posibles
son las siguientes:
 4096 x 2160 a 24 fps.
 2048 x 1080 a 24 fps.
 2048 x 1080 a 48 fps.
La reticencia comercial de otros fabricantes de proyectores a emplear un espacio de
color produjo muchas discusiones sobre qué debía usarse específicamente según DCI.
El resultado de tales discusiones fue un sistema llamado Capital XYZ. Esto suena
complejo pero en realidad no lo es. El color fue ya descrito por la CIE En resumen, los
estándares propuestos por DCI precisan que el sistema de cine digital pueda llevar todas
las coordenadas CIE XYZ. Esto va más allá del espectro visible, de forma que cada
dispositivo de proyección contará con un circuito para dibujar un mapa desde el
recipiente CIE hasta sus propios parámetros. El punto importante aquí es que el
proyector de referencia para masterización use una fuente de color TIP3. Si avanzan las
nuevas tecnologías, como por ejemplo los proyectores láser, entonces esta referencia
para masterización tendrá que cambiar.

En cuanto al sonido, existen 16 canales digitales de audio a 24 bits y 48 ó 96KHz pero
se recomienda la transmisión de dos canales serie (lineales) con muestras de audio
digital. Existe ruido rosa (limitado en banda) con un ancho de banda de 22KHz para el
caso de reproducción a 48KHz y del doble para el caso de 96KHz.
Proyector
El proyector que propone DCI está basado en un sistema de procesado de luz que
incluye componentes ópticos y electrónicos. Las recomendaciones de nivel de luz son
de entre 0.01cd/m2 y 0.03cd/m2. La pantalla debe ser no especular y de reflectividad
uniforme en todo el espectro visible. Además tendrá una máscara negra variable que se
ajustará a al tamaño del cuadro. Como mínimo debe incluir los formatos de imagen
1.85:1 y 2.39:1. El proyector tiene un protector físico alrededor de su perímetro que
evita el acceso a cubiertas y puertas interiores. El decodificador de bloques del
proyector es compatible con el sistema de bloques anteriormente descrito mediante la
compatibilidad mutua entre los sistemas lógicos y electrónicos que incorpora. Este
descifrará la señal cifrada por bloques a la vez que se asegura que cada uno de ellos sólo
incorpora una comprobación SM. La estructura de muestras para representar una
imagen es 4096 x 2160 ó 2048 x 1080 pero el proyector debe estar capacitado para
recibir el formato 4096 x 2160 de imagen y reproducirlo en 2048 x 1080. Esta
conversión espacial se realiza con un ratio 2:1 en cada eje de la imagen. Además esta
preparado para ajustar el ancho o el alto de la secuencia de imágenes automáticamente a
un tamaño sin que este escalado produzca deformidades visibles en la imagen. El valor
de luminancia que reproduce en el centro de la pantalla cuando se proyecta un blanco
puro es de 48cd/m2. Su contraste nominal secuencial, que se mide por la diferencia
entre una imagen totalmente blanca y otra totalmente negra, alcanza el valor 1200:1 y
entre cuadros es de hasta 100:1.
Pantalla
La interfaz para el sistema de almacenaje de la pantalla (Ethernet) será de 1GB/s o
mejor. La transmisión puede ser en cable de cobre (1000Base-T) o en fibra óptica
(1000Base-FX), descrita en el protocolo TCP/IP. Tiene una capacidad de hasta 1TByte,
con un sistema de redundancia de bits por si se produjeran fallos en el disco duro y una
velocidad de 307 Mbps.
Sistema de Configuración Típico DCI
En la siguiente imagen se puede ver un esquema de la configuraciones ya mencionada:
extra-theater e intra-theater que engloban el sistema de configuración de cine digital que
propone DCI.


Sistema de Configuración Típico DCI .

MXF. Aclaremos dudas

En el pasado curso de creación de DCPs que impartimos en 709 pude ver que había
ciertas dudas con respecto a los tipos de MXF que existen. La duda apereció cuando
expliqué que la imagen y el sonido de las copias de cine digital (DCP) van encapsuladas
en sendos MXF y estos son diferentes, por ejemplo, de los que se graban en XDCAM y
P2 o de los que utilizan los sistemas de edición como AVID. Pues como lo mejor es
siempre aclarar las dudas aquí os dejo un artículo que espero os sea útil.
MXF (Material Exchange Format) es un formato de archivo dirigido al intercambio de
material audiovisual con metadatos asociados entre distintas aplicaciones. Sus
características técnicas están definidas en el estándar SMPTE 377M y fue desarrollado
por el Pro-MPEG Forum, la organización EBU y la asociación AAF, junto con las
principales empresas y fabricantes de la industria broadcast. El objetivo final es un
formato de archivo abierto que facilite el intercambio de vídeo, audio, datos y metadatos
asociados dentro de un flujo de trabajo basado en archivos.
Un fichero MXF funciona como un contenedor que puede portar video, audio, gráficos,
etc. y sus metadatos asociados, además de la información necesaria que conforma la
estructura del archivo. Un factor importante es que MXF es independiente del formato
de compresión utilizado, ya que puede transportar diferentes tipos de formato como
MPEG, DV o una secuencia de TIFFs. La gran ventaja de MXF es que permite guardar
e intercambiar los metadatos asociados, que describen el contenido y la forma en que el
archivo debe ser leído.
Los metadatos pueden contener información sobre:
 La estructura de archivos
 El contenido en si (MPEG, DV, ProRes, DnxHD, JPG, PCM, etc.)
 Código de tiempo
 Palabras clave o títulos
 Subtítulos
 Notas de edición
 Fecha y número de versión de un clip -Etc.
MXF se basa en el modelo de datos AAF (Avanced Authoring Format) y son
complementarios entre ellos. La diferencia entre este formato y MXF es que el formato
AAF está optimizado para procesos de posproducción, debido a que permite almacenar
una mayor riqueza de metadatos y a que posibilita utilizar referencias a materiales
externos. Los archivos MXF pueden incrustarse dentro de los archivos AAF, esto
significa que un proyecto AAF puede incluir el contenido audiovisual y los metadatos
asociados, pero también puede llamar a otros contenidos MXF alojados de forma
externa.
Lograr la interoperabilidad es el objetivo primordial de MXF y se establecen tres áreas:
-Multiplataforma. Se trabajará a través de diferentes protocolos de red y de sistemas
operativos, incluyendo Windows, Mac OS, Unix y Linux.
-Compresión independiente. No convertir entre formatos de compresión, lo hace más
fácil manejar más de un formato nativo. Puede manejar el vídeo sin comprimir.
-Transferencia en streaming. MXF interactua a la perfección con los medios de
streaming de modo bidireccional. SDTI es un ejemplo de transmisión basada en ficheros
que funciona a la perfección con este formato. También la transmisión sobre redes IP es
óptima.
Un fichero MXF tiene una estructura que alberga una cabecera de archivo donde se
detallan el contenido del archivo y su sincronización, los metadatos asociados a la
multimedia, el cuerpo que contiene la esencia de los datos multimedia originales y la
cola que cierra el archivo.

Los datos contenidos en archivos MXF son almacenados usando una subdivisión en un
trío de valores KLV (Key-Length-Value). Esto es una clave de identificación única
(key) de 16 bytes para cada trío, el valor de la longitud (length) de los datos
almacenados en ese trío y los datos en si (value). Este modo de organizar los datos
permite localizar cualquier elemento específico dentro del archivo MXF, con tan solo
leer las claves. Esta estructura también permite que el formato de fichero pueda crecer y
añadir nuevas características con nuevas técnicas de compresión y esquemas de
metadatos que se vayan definiendo.

Podemos rizar un poco más el rizo y es que se permiten particiones dentro de un trío
KLV. Esto es que los datos de un trío pueden estar fragmentados en una sucesión de
tríos KLV y le da mas robustez a la estructura del fichero. Esto tiene una ventaja, por
ejemplo, en las transmisiones de ficheros MXF sobre redes, donde si perdemos la
conexión y se corta la transferencia del MXF, al recuperarla no será necesario enviar el
fichero entero de nuevo puesto que podremos enganchar en el trío donde se rompió la
transferencia.

Hasta aquí supongo que todos lo tenéis bastante claro y os preguntareis el porqué un
MXF que genera una cámara XDCAM no es compatible con el que genera una P2 si el
formato MXF se creó para garantizar la compatibilidad. Pues bien, la gran flexibilidad
del MXF permite distintas interpretaciones y aplicaciones de la norma por los distintos
fabricantes, y así es como los MXF que generan los productos de cada uno no son
compatibles entre sí. Esto ha llevado a implementar una serie de diferentes versiones
físicas para mejorar la interoperabilidad en función de sus aplicaciones. De este modo se
establecen los llamados Patrones Operacionales y cada uno tendrá sus especificaciones
bajo un estándar propio que definirá el tipo de imagen/sonido que contiene la esencia y
la estructura de los metadatos. De estos patrones, OP-1a y OP-Atom son los que nos
encontramos más a menudo.
El patón operacional genérico es OP-1a y se creó como sustituto de la cinta de video,
donde un solo archivo MXF contiene video, varios canales de audio y códigos de
tiempo. Es muy simple y flexible pero tiene muchas limitaciones en cuanto a se tiene
que trabajar sobre el. Un ejemplo en este caso sería el formato XDCAM o las cámaras
de JVC que graban en tarjetas, donde cada uno de sus clips tienen un único archivo con
el video y el audio.
OP-Atom es un formato de archivo muy simple que sólo puede tener en su esencia un
único elemento, ya sea una pista de vídeo o de audio. Por lo general, la metadata
vinculada a la media que contienen los MXF OP-Atom está en ficheros AAF o XML.
Un ejemplo típico es el formato P2, donde las pistas de vídeo y audio se envuelven en
ficheros MXF-Atom separados y la metadata que los asocia va en un fichero XML
separado.
Los ficheros de media que genera AVID también son OP-Atom y su metadata asociada
está en AAF. Este es el más utilizado en los entornos de edición, donde se requiere el
acceso de forma individual a los componentes audiovisuales. En el caso de AVID, estos
ficheros tienen la particularidad de incorporar unos metadatos no estándar de MXF que
utilizan las aplicaciones de este fabricante para indexarlos y que pueden crear problemas
de incompatibilidad si se intercambian con otros sistemas diferentes a AVID.
En el caso del cine digital, los MXF que llevan la imagen y audio también son OP-
Atom. En este caso están restringidos a la compresión y espacio de color específicos
para esta función (JPEG 2000 y XYZ) en el caso del video y a 16 pistas PCM en el caso
del audio, por lo que su compatibilidad fuera de este entorno es muy limitada. Su
sincronización y metadata está la información que llevan unos ficheros XML.
Después podemos establecer un grupo de patrones de operación (OP) con varios niveles
de complejidad, donde el patrón OP-1a es el nivel más bajo. Una única pista continua
con vídeo, audio y metadatos empaquetados en un archivo es lo que define el patrón
OP-1a. El nivel más complejo dentro de estos patrones es el OP-3c, con la combinación
de varios clips (archivos empaquetados) con varias listas de reproducción (playlist)
combinadas. Aquí os dejo una tabla con ellos.

La Asociación AMWA (Advanced Media Workflow Association) se creó para liderar el
desarrollo y fomento de la utilización de estándares y tecnologías que permiten unos
flujos de trabajo más eficaces para el uso de la media en red. Sus proyectos actuales son
el avance en el uso de los formatos AAF, BXF, MXF y XML en los lujos de trabajo
basados en archivos de datos. Esta asociación trabaja en estrecha colaboración con la
SMPTE y otros organismos de normalización.
Entre sus proyectos hay uno que hace referencia a los archivos MXF y define un
conjunto de reglas que limitan la especificación MXF de cara a la adaptación de este
formato a distintas aplicaciones y flujos de trabajo. Estas especificaciones se pueden
resumir en la siguiente lista:
AS-02 – MXF con versiones de masterización. Este fue desarrollado para soportar el
almacenamiento y gestión de los componentes de un programa en MXF, para permitir
versiones, multi-idiomas y entregas a los diferentes medios de difusión. Es un paquete
de archivos que cuenta con todos los elementos necesarios de video, audio y metadata
para generar varias versiones de un producto. ¿Quién lo debe usar? Entornos de
postproducción, los organismos de radiodifusión y los distribuidores de contenidos.
AS-03 – Entrega de programas. Esta especificación MXF está optimizada para la
distribución del programa y su emisión directa desde un servidor de vídeo. Es un único
archivo que incorpora audio, video y metadatos de un único programa. ¿Quién lo debe
usar? Las redes de organismos de radiodifusión.
AS-10 – MXF para la Producción. La especificación de la aplicación AS-10 está
orientada a establecer un formato de archivos MXF común para todo el flujo de trabajo
de una producción, incluida la grabación en cámara, la ingesta en un servidor, la
edición, la reproducción, la distribución digital y archivo.
Un ejemplo es el uso de MPEG Long-GOP. El proyecto incluye el desarrollo de una
aplicación para validar los archivos como una ayuda para los procesos de control de
calidad. ¿Quién lo debe usar? Producción y postproducción, los organismos de
radiodifusión y distribuidores de contenido.
AS-11 – MXF para redistribución. Este es un formato de archivos MXF para la entrega
de productos terminados desde las estaciones de difusión de los creadores de los
programas. AS-11 incluye la funcionalidad del AS-03 y se extiende para incluir AVC-
Intra 100, e incluye soporte para la norma de vídeo D-10 de definición estándar con
audio AES3. AS-11 define un conjunto básico de metadatos mínimo, y un esquema de
metadatos con la segmentación del programa. ¿Quién lo debe usar? Los organismos de
radiodifusión, y los distribuidores de contenidos.
AS-12 – Entrega Comercial. AS-12 es un subconjunto de archivos en formato MXF
para la entrega de anuncios acabados a las estaciones de televisión o redes de difusión.
La especificación proporciona una claqueta y otros metadatos para asociarlos con la
esencia del sonido y del vídeo. AS-12 establece que la identificación explícita de los
contenidos se realice asistida por un ordenador y que este controlará la lista de
reproducción. ¿Quién lo debe usar? Producción y postproducción, la distribución
comercial, organismos de radiodifusión y redes de cable.
Las principales características de estos MXF están en la siguiente tabla, AS-02 no
aparece por estar todavía sin cerrar definitivamente su proceso de desarrollo.

Y hablado del AS-02, AVID en su nueva versión 6.5 de las soluciones MediaComposer
y Symphony da soporte a este formato. Un nuevo componente de AMA (Avid Media
Access) llamado Avid Media Authoring nos permite a los usuarios entregar y archivar
múltiples formatos de salida, entre ellos se encuentra el AS-02. Se incorpora un nuevo
códec JPEG 2000 nativo y así se podrán empaquetar productos para multi-difusión,
multi-versión, multi-idioma sin degradación del contenido. AS-02 en Avid soporta J2K,
Uncompressed 10b RGB, DNxHD, AVCI, IMX y Uncompressed 8b para SD.

Cuando creemos un paquete AS-02 nos encontraremos con la siguiente estructura de
archivos:
 Asset.mxf es el archivo de la secuencia (versión).
 Manifest.xml es un archivo que incluye información sobre el creador, fecha de
creación, información sobre la versión y listado de todos los archivos y carpetas
que contiene el paquete AS-02.
 Shim.xml es una plantilla o archivo de configuración que limita las reglas para
un uso específico.
 La carpeta Media contiene todos los archivos de la media que incluye el paquete.
 La carpeta Extra contiene una copia de la secuencia sin compactar en un archivo
con una composición AAF. Esta carpeta también puede contener otros archivos
adicionales que se desean incluir en el paquete, tales como guiones, gráficos, etc.
Aquí podéis descargar un documento sobre AS-02 y AVID
Recordaros también que estos contenidos son explicados en nuestro curso DCP.
Creación de cine digital con software gratuito.
Aquí os dejo también la lista de los estándares que hacen referencia al formato MXF
(fuente: wikipedia)
-DOCUMENTOS BASE:
SMPTE 377M: The MXF File Format Specification (documento principal general)
SMPTE EG41: MXF Engineering Guide (guía explicando cómo usar MXF)
SMPTE EG42: MXF Descriptive Metadata (guía explicando cómo usar los metadatos
descriptivos en MXF)
-PATRONES OPERACIONALES:
SMPTE 390M: OP-Atom (un layout simple para ficheros MXF) SMPTE 378M: OP-1a
SMPTE 391M: OP-1b
SMPTE 392M: OP-2a
SMPTE 393M: OP-2b
SMPTE 407M: OP-3a, OP-3b
SMPTE 408M: OP-1c, OP-2c, OP-3c
-CONTENEDORES GENÉRICOS:
SMPTE 379M: Generic Container (cómo almacenar la esencia en los ficheros MXF)
SMPTE 381M: GC-MPEG (cómo almacenar los datos de esencia MPEG en MXF
usando el Contenedor Genérico)
SMPTE 383M: GC-DV (cómo almacenar los datos de esencia DV en MXF usando el
Contenedor Genérico)
SMPTE 385M: GC-CP (cómo almacenar los datos de esencia SDTI-CP en MXF usando
el Contenedor Genérico)
SMPTE 386M: GC-D10 (cómo almacenar los datos de esencia SMPTE D10 en MXF
usando el Contenedor Genérico)
SMPTE 387M: GC-D11 (cómo almacenar los datos de esencia SMPTE D11 en MXF
usando el Contenedor Genérico)
SMPTE 382M: GC-AESBWF (cómo almacenar los datos de esencia audio AES/EBU i
Broadcast en MXF usando el Contenedor Genérico)
SMPTE 384M: GC-UP (cómo almacenar los datos de esencia de imagen sin comprimir
en MXF usando el Contenedor Genérico)
SMPTE 388M: GC-AA (cómo almacenar los datos de esencia de audio codificado con
A-law en MXF usando el Contenedor Genérico)
SMPTE 389M: Generic Container Reverse Play System Element
SMPTE 394M: System Item Scheme-1 for Generic Container
SMPTE 405M: Elements and Individual Data Items for the GC SI Scheme 1
-METADATOS, DICCIONARIOS Y REGISTROS:
SMPTE 380M: DMS1 (conjunto de metadatos descriptivos para usar con ficheros
MXF)
SMPTE 436M: MXF Mappings for VBI Lines and Ancillary Data Packets SMPTE
RP210: SMPTE Metadata Dictionary
SMPTE RP224: Registry of SMPTE Universal Labels

Introducción a la corrección de color o Etalonaje
1. Introducción

2. La importancia de contar con un buen original
2.0 El submuestreo
2.1 Cámaras de 8, 10, 12 y 14 bits
2.2 Ventajas de las videocámaras con 3 CCDs
2.3 Formatos de grabación y pérdidas asociadas
2.4 Pérdidas en la captura

3. La correción de color
3.1 Herramientas necesarias
3.2 Los tres pasos de la corrección de color
3.2.1 Corecciones primarias
3.2.2 Correcciones secundarias
3.2.3 Filtros y efectos para lograr un look determinado
3.3 Herramientas
3.3.1 La ruedas de color
3.3.2 Niveles
3.3.3 Histogramas
3.3.4 Parade
3.3.5 Vectorscope
3.3.6 Otras herramientas
3.3.7 La verdadera importancia de las herramientas de análisis

4. Casos prácticos
4.1 Correcciones primarias: corregir un color dominante
4.2 Correcciones secundarias: mejorar lo bueno

5. Looks

6. Prevenir es mejor que curar
6.1 La corrección de color ANTES de empezar a grabar
6.2 Control del color durante la grabación

7. Cómo asegurarse de ver bien los colores
7.1 Calibrando el monitor
7.2 Iluminación ambiental
7.3 Usar una tarjeta de E/S de vídeo en lugar de la tarjeta gráfica

8. Epílogo
1. Introducción

La primera vez que vi el "cómo se hizo" de una película no daba crédito a mis ojos al
comparar las imágenes de una misma escena vistas, por un lado, en su formato final, y por
otro, tal y como las grabó una videocámara común. La escena cinematográfica tenía una
enorme fuerza que te hacía creer que el mundo imaginario que veías y todo lo que sucedía
en él eran reales. La videocámara doméstica, sin embargo, a pesar de grabar la misma
escena, con los mismos actores, mismo decorado, misma iluminación, etc., mostraba unas
imágenes toscas y chapuceras al nivel de un corto realizado en un fin de semana entre
amigos. En aquel entonces pensé que la única diferencia estaba en la cámara; hasta que vi
algunos videoclips y cortometrajes grabados con cámaras semi-profesionales y me di cuenta
que la diferencia en la calidad visual entre esos proyectos y los míos no podía ser única y
exclusivamente la cámara: había también un importante tratamiento del color.

Y es que son muy pocas las situaciones en las que una grabación original no pueda
modificarse para hacerla más agradable a la vista o lograr acercar su aspecto visual a
nuestros deseos. Aumentar el contraste o la luminosidad, cambiar la tonalidad, manipular
la imagen por zonas para atraer la atención del espectador a un lugar concreto de la
imagen... Por mucho que se cuiden las condiciones de iluminación de la grabación original
lo normal es que el etalojane o corrección de color mejoren, mucho en ocasiones, las
imágenes originales.

A menudo el retoque de color es, sencillamente, imprescindible para garantizar la calidad
del resultado final. Tal es el caso de las grabaciones en exteriores. Las características de la
luz no son iguales a las 9 de la mañana que a las 5 de la tarde o si está nublado o hace sol.
Por tanto, si la grabación de una misma escena se extiende a lo largo de uno o varios días
deberemos realizar una trabajo posterior de corrección de color para igualar la tonalidad de
todas las tomas y que no se rompa la continuidad. Del mismo modo, también deberemos
trabajar el color cuando usemos dos cámaras diferentes para rodar o tendremos extraños
cambios en la calidad de la imagen cada vez que usemos un plano de una u otra cámara.

2. La importancia de contar con un buen original

Si estás interesado en la corrección de color lo primero que debes tener en cuenta es que
cuanta más calidad tenga el original más flexibilidad tendrás a la hora de manipular el
color. Es decir, tienes un mayor margen a la hora de cambiar cualquier parámetro visual del
vídeo. Pero si el original ha sufrido mucha pérdida de color la manipulación se hace
prácticamente imposible y cualquier cambio posiblemente empeorará más que mejorará la
imagen. Por ello, resulta vital conservar la máxima cantidad de información de color posible
en todo momento.

Pero preservar la información de color no resulta fácil. Por un lado, salvo en equipos tope
de gama, absolutamente todos los pasos en el tratamiento de imágenes llevan asociados
pérdidas de color y esas pérdidas, además, son acumulativas. Y resulta que el tratamiento
de color es precisamente el último paso que se lleva a cabo justo antes de la exportación
final; luego inevitablemente siempre vamos a trabajar en la peor de las situaciones posibles:
cuando ya se han producido prácticamente todas las pérdidas. Para obtener resultados
óptimos, por tanto, resulta esencial conocer cómo preservar al máximo la calidad en cada
paso.

Antes de que la electrónica deseche una importante cantidad de color, la luz debe llegar a la
videocámara a través de la lente de su objetivo; y evidentemente la calidad del objetivo
tendrá una especial relevancia en las características de la luz que le llegará a la electrónica
de la videocámara, que será la encargada de recibirla y procesarla. Cuando hay mucha
cantidad de luz para grabar las diferencias entre una buena óptica y una mediocre no son
tan grandes, pero son ENORMES en condiciones de escasa luminosidad. Pero por ser un
tema que desconozco, no comentaré aquí las diversas opciones en cuanto a ópticas y me
centraré en los sentores de las videocámaras.

Lo que sí puedo comentar es que, en caso de dudas, siempre es mejor grabar con exceso de
luz que con defecto. Se obtienen mejores resultados disminuyendo la luminosidad general
durante la corrección que teniendo que aumentar. De hecho, muchas escenas
cinematográficas nocturas se graban a plena luz del día y luego, durante la corrección de
color, se les da un aspecto de noche.

2.0 El submuestreo

La pérdida de color en la manipulación de vídeo digital tiene una razón de ser: el ancho de
banda. Dicho más vulgarmente, el color original ocupa mucho espacio de almacenamiento y
necesita viajar por medios muy rápidos. Esto provoca problemas para almacenar y
transmitir vídeo sin pérdidas y únicamente equipos de varios miles de euros se pueden
permitir este lujo. Quizás convenga empezar diciendo que la inmensa mayoría de cámaras
profesionales y todas las semi-profesionales y domésticas realizan el llamado "submuestreo
de color" en el que, simple y llanamente, la cámara desecha la mitad del color en el mejor de
los casos (submuestreo 4:2:2) o nada menos que tres cuartas partes (sumbuestreos 4:2:0 o
4:1:1). Es decir, ya de entrada, estamos "tirando a la basura" una importante cantidad de
color. El formato 4:4:4 queda reservado a cámaras de cine o a producciones de vídeo de
muy alto nivel ya que mantiene el 100% del color y, por tanto, no hay submuestreo.

Para más información sobre el submuestreo puedes consultar este enlace:

http://www.videoedicion.org/documentacion/index.php?article=162#3._Submuestreo_Cr
omatico_y_compresion_de

2.1 Cámaras de 8, 10, 12 y 14 bits

En el sensor CMOS o CCD de la videocámara la luz se descompone en tres colores primarios
-rojo, verde y azul- y dan lugar a la señal RGB, del inglés red, green y blue. Cada sensor
CMOS o CCD tiene una capacidad limitada a la hora de registrar variaciones de un mismo
color. Un sensor de 8 bits es capaz de registrar 256 variaciones de cada color básico (2
8
) que
van desde tono más oscuro, justo antes del negro, al más claro justo antes del blanco.
Puesto que se almacenan tres colores, tenemos un total de 16,7 millones de variaciones
posibles, resultantes de combinar estos tres colores entre sí. Matemáticamente, 3 x 2
8
. Un
sensor de 10 bits, por su parte, es capaz de diferenciar 1.024 variaciones de cada color
básico, uno de 12 bits 4.096 y uno de 14 bits, la mayor precisión en la actualidad, puede
registrar hasta 16.384 tonos diferentes por color. En total, un sensor de 10 bits puede
registrar hasta 1.073 millones de colores, uno de 12 bits 68.719 millones y uno de 14 bits
casi 4.5 Billones, con b, de colores, lo que supone 64, 4.096 y 262.144 veces más variaciones
de color que un sensor de 8 bits respectivamente. Evidentemente, únicamente las cámaras
de calidad cinematográfica son capaces de trabajar a 14 bits de profundidad de color y las
cámaras de 12 bits también están prácticamente fuera del alcance de la mayoría. Pero
siempre que sea posible lo ideal es trabajar con imágenes procedentes de cámaras de 10 bits
que, estando destinadas al mercado profesional y teniendo un precio elevado, son bastantes
más accesibles para quienes se dediquen al vídeo de manera más o menos profesional.

Pero no es oro todo lo que reluce. Del mismo modo que la mayoría de videocámaras sólo
ofrecen 8 bits de profundidad de color (¿a que 16,7 millones de colores ya no parecen
tantos?) la mayoría de monitores y televisores también están limitados a 8 bits, lo que
quiere decir que si le enviamos a una pantalla de 8 bits vídeo de 10 ó 12 bits le estamos
enviando más información de la que físicamente puede mostrar y, por tanto, estaremos
viendo una representación limitada y falseada del vídeo original. Y no es el único problema.
Trabajar con tanta cantidad de información supone que nuestro disco duro debe ser lo
bastante rápido como para leer todos esos datos sin saltos, y ni que decir tiene que hará
falta un procesador y una tarjeta gráfica especialmente potentes para poder manejar
semejante flujo de datos. A ese respecto comentar que tanto Apple como Avid ofrecen junto
con sus aplicaciones de vídeo una excelente solución a este problema con los discos duros a
través de sus codecs Apple ProRes 422 y Avid DNxHD que, sin apenas pérdidas, ofrecen
una compresión extremadamente eficiente de vídeo HD de hasta 12 bits.

A menudo hay quien piensa que no tiene sentido grabar y editar en 10 ó 12 bits si el vídeo se
verá, finalmente, en un televisor doméstico de 8 bits. Aunque los televisores y discos Blu-
Ray de 10 bits son cada vez más habituales, trabajar en 10 ó 12 bits tiene sentido aún
exportando el resultado final en un formato de 8 bits, como un DVD. La justificación está
en el redondeo. Cada vez que hacemos cualquier corrección o manipulación de color
estamos haciendo cálculos matemáticos. Cuanta más precisión tengan los dígitos más
precisión tendrá el resultado final. Como ya he indicado, las pérdidas de color son
acumulativas, de modo que los redondeos también lo son. Lo que inicialmente era 2,56 pasa
a ser 2,6, luego 3 y así sucesivamente cada vez que hagamos alguna manipulación. Como
también he comentado ya, cuanta más información contenga el vídeo original, más
flexibilidad tendremos a la hora de ajustar o retocar el color y, por tanto, más podremos
acercarnos al aspecto visual que deseemos. Uno de los problemas más comunes a la hora de
manipular vídeo de 8 bits son los degradados. Debido a la falta de rango tonal, en los vídeos
de 8 bits a menudo aparecen unos molestos dientes de sierra en escenas con humo, agua,
cielos, etc. Trabajando con mayores profundidades de color durante la edición esos
degradados serán mucho más suaves en el resultado final aún exportando a 8 bits.
2.2 Ventajas de las videocámaras con 3 CCDs
Además de las limitaciones en la profundidad de color (8, 10, 12 ó 14 bits) hay otra
importante pérdida de color en el sensor CMOS o CCD. Salvo que nuestra cámara cuente
con tres sensores, uno para cada color básico, la superficie del sensor debe, necesariamente,
repartirse en zonas asignadas a un único color y, además, este reparto no es equitativo sino
que sigue el llamado "patrón Bayer" dedicando un 50% del sensor a la recepción del color
verde, un 25% al rojo y el 25% restante al azul. La explicación a este reparto es que el ojo
humano es más sensible al verde que a los otros dos colores y, por tanto, puestos a
descartar color es mejor descartar rojo y azul y preservar más cantidad de verde. De nuevo,
resulta evidente que lo ideal es NO descartar ni azul, ni rojo, ni verde sino conservar los tres
al 100%. Por lo tanto, es evidente que siempre que sea posible conviene usar videocámaras
con 3 sensores CMOS o CCD en el que cada uno captura el 100% de uno de los colores
primarios. De ese modo evitaremos las pérdidas asociadas al patrón Bayer.


Figura 1: Patrón Bayer Vs Foveon en el que no se pierde color
2.3 Formatos de grabación y pérdidas asociadas

Hasta aquí hemos analizado la adquisición y procesado de las imágenes en bruto, tal y como
le llegan al sensor de la videocámara. Pero una cosa es la cantidad de información que un
sensor pueden procesar y otra diferente es la cantidad de información que la videocámara
puede almacenar. De hecho, algunas cámaras ofrecen más calidad por sus salidas HDMI o
SDI que a través de sus soportes de grabación (esto sucede con todas las HDV, por
ejemplo); precisamente porque al usar la salida de la videocámara obtenemos las imágenes
tal y como le llegan al sensor. Como ya comentamos, almacenar gran cantidad de
información supone un doble problema: cantidad de datos por segundo y capacidad de
almacenamiento. Cuanta más información de la imagen original conservemos, nuestro
sistema de almacenamiento deberá ser más rápido y de más capacidad. Es por ello que la
mayoría de videocámaras, tras desechar información en el CCD como acabamos de ver,
vuelven a reducir el volumen de información comprimiendo los datos y, a menudo,
volviendo de desechar más información.
Cada soporte de almacenamiento (disco duro, tarjeta, cinta o dispositivo óptico) tiene un
ancho de banda determinado; esto es, puede almacenar una determinada cantidad de datos
por segundo. Por ello, aunque el sensor de la videocámara sea capaz de registrar
físicamente una cantidad de información luego el procesador de la misma comprime esa
información para que "quepa" en el ancho de banda que ofrece el soporte de
almacenamiento. A continuación, he incluído una tabla en la que indico algunos datos
básicos sobre los soportes de almacenamiento más comunes.

IMPORTANTE: Hay que tener en cuenta que esta tabla la ofrezco únicamente a modo de
referencia y no debe usarse como un baremo de la calidad de cada formato. En primer lugar
porque estos son únicamente formatos de almacenamiento y aunque cada uno tiene ciertas
limitaciones, en realidad únicamente recogen la información que le envía la videocámara de
modo que la calidad de los datos que almacenan depende, en gran medida, de la calidad del
vídeo que reciben. No obstante, saber cómo se almacena el vídeo nos puede dar
una idea bastante aproximada de cuánto color podremos tener disponible
para trabajar después. Así, por los motivos analizados en los apartados anteriores un
formato 4:2:2 es preferible a uno 4:2:0 y uno de 10 bits a uno de 8. No obstante hay que ser
cuidadoso porque puede haber excepciones. Por ejemplo, el Digital Betacam, de 10 bits,
ofrece una calidad similar al DVCPRO 50, de 8 bits, a pesar de usar el mismo submuestreo
4:2:2, la misma compresión DCT-Intra y un ancho de banda superior.
Formato Codec Resolución
Profundidad
de color
Submuestreo Ancho de banda máximo
miniDV DCT Intraframe SD 8 bits
4:2:0 PAL
4:1:1 NTSC
25 Mbit/s
DVCPRO DCT Intraframe SD 8 bits 4:1:1 25 Mbit/s
DVCPRO 50 DCT Intraframe SD 8 bits 4:2:2 50 Mbit/s
DVCPRO HD DCT Intraframe HD 8 bits 4:2:2 100 Mbit/s
DVCAM DCT Intraframe SD 8 bits
4:2:0
4:1:1
25 Mbit/s
Digital Betacam MPEG-2 (I-frames) SD 10 bits 4:2:2 90 Mbit/s
Digital Betacam SX MPEG-2 (IB-frames) SD 10 bits 4:2:0 18 Mbit/s
MPEG IMX MPEG-2 (I-frames) SD 10 bits 4:2:2 30, 40 y 50 Mbit/s
HDV MPEG-2 (IPB) HD 8 bits 4:2:0 25 Mbit/s
HDCAM DCT Intraframe HD 8 bits 3:1:1
*
144 Mbit/s
HDCAM HD MPEG-2 (IPB) HD y SD 8 bits 4:2:0 35, 25 y 18 Mbit/s
HDCAM SR MPEG-4 Part 2 HD 10 bits
4:4:4
4:2:2
440 y 880 Mbit/s
XDCAM EX MPEG-2 (IPB) HD y SD 8 bits 4:2:0 25 y 35 Mbit/s
XDCAM HD422 MPEG-2 (IPB) HD 10 bits 4:2:2 50 Mbit/s
MOD MPEG-2 (IPB) SD 8 bits 4:2:0 10 Mbit/s
TOD MPEG-2 (IPB) HD 8 bits 4:2:0 30 Mbit/s
AVCHD MPEG-4 Part10 HD y SD 8 bits 4:2:0 24 Mbit/s
AVC-Intra 50
MPEG-4 Part10
CABAC (lossless)
HD 8 bits 4:2:0 50 Mbit/s
AVC-Intra 100
MPEG-4 Part10
CAVLC (lossless)
HD 10 bits 4:2:2 100 Mbit/s
* En el HDCAM, además de perderse color, también se pierde luminosidad, de ahí que el submuestreo empiece por 3 y
no por 4. Tienes más información sobre muestreo aquí
Formatos 10 bits: Digital Betacam, Digital Betacam SX, MPEG IMX, HDCAM SR,
XDCAM HD422, AVC-Intra 100

Formatos 4:2:2: DVPRO 50, DVPRO HD, Digital Betacam, MPEG IMX, HDCAM SR,
XDCAM HD422, AVC-Intra100

Formatos HD, 10 bits y 4:2:2: DVPRO HD, HDCAM SR, XDCAM HD422, AVC-
Intra100

A la vista de este resumen no es de extrañar, por tanto, que los formatos HD de 10 bits y
submuestreo 4:2:2 únicamente estén disponibles en videocámaras profesionales de alta
gama.
2.4 Pérdidas en la captura

Este apartado habría sido muy extenso hace años. Pero puesto que con las cámaras digitales
no se hace una captura, sino una transferencia de datos ya digitalizados, al transferir el
vídeo de nuestro videocámara al ordenador, ya sea por FireWire, tarjeta de memoria o USB,
hacemos una copia exacta del material grabado y, por tanto, ya no hay pérdidas. Así que,
sin más, podemos pasar al siguiente apartado.

3. La correción de color

3.1 Herramientas necesarias
La corrección de color ha estado reservada durante mucho tiempo a especialistas con
plataformas y sistemas de color muy avanzados, complejos y extremadamente caros. Ahora,
sin embargo, la edición de vídeo, incluso en calidad HD, está al alcance de prácticamente
cualquiera y la mayoría de, por no decir todos, los programas de edición de vídeo del
mercado ofrecen alguna herramienta de corrección de color de modo que, sin salir de
nuestro programa de edición habitual, podremos hacer algunas correcciones, aunque sean
muy básicas.

Por mencionar algunos de los programas de edición más usados y al alcance de
prácticamente todo el mundo, podremos manipular el color con las herramientas incluidas
de serie en Adobe Premiere, Sony Vegas, Apple Final Cut Pro y Grass Valley
Edius. También podremos realizar estas tareas en aplicaciones de composición como
Adobe After Effects, Apple Motion o Autodesk Combustion. Otras aplicaciones de
mucha mayor potencia, sin embargo, quedan más alejadas del poder adquisitivo de la
mayoría, tales como Avid Media Composer o Autodesk Smoke. A tener en cuenta que
el software Apple Color viene de serie en el paquete de Final Cut Studio y está dedicado
íntegramente al tratamiento del color.

Las herramientas que ofrecen estas aplicaciones son, como decía, bastante flexibles. Sin
embargo, y como siempre sucede, hay una serie de empresas que han desarrollado sus
propios software de gestión de color que puede integrarse dentro de algunas de las
aplicaciones mencionadas o bien funcionan de modo independiente. Estos plugins o
añadidos externos suelen ofrecer funciones de mayor potencia que las incluídas en la
aplicación anfitriona o bien pretenden simplificar o facilitar el proceso de corrección. A
continuación muestro un listado de algunos de estos productos y especifico los requisitos
para su funcionamiento (todos los datos son a fecha Febrero 2010):
Aplicación
Sistema
Operativo
Se integra en... Precio
Enlace a la web oficial
del producto
(se abre en una nueva
ventana)
DVShade Mac OS
Final Cut Pro, Motion y After
Effects
49 dólares americanos dvshade.com
Synthetic
Aperture
Windows y
Mac OS
Independiente, After Effects,
Premiere y Combustion
575 dólares americanos la
versión Plugin, 995 la versión
independiente y 1.995 la
versión HD
synthetic-ap.com
The grading
sweet
Mac OS Final Cut Pro
99 dólares americanos la
versión estándard y 199 la
versión Pro
thegradingsweet.com
Red Giant
Magic Bullet
Windows y
Mac OS
After Effects, Premiere, Final
Cut Pro, Apple Motion, Avid
Xpress, Media Composer, Sony
Vegas
99 dólares americanos la
versión Mojo, 199 la Colorista
y 399 la versión Looks
redgiantsoftware.com
IRIDAS
SpeedGrade
OnSet
Windows y
Mac OS
Independiente 759 dólares americanos iridas.com
3.2 Los tres pasos de la corrección de color:

El proceso de corrección de color pasa, básicamente, por tres pasos:

1. Correcciones Primarias.
2. Correcciones Secundarias.
3. Filtros y efectos para lograr un look determinado

3.2.1 Corecciones primarias

Salvo que durante la grabación se mida correctamente la luz y se ajuste la cámara con
precisión, es frecuente que cuando se usan los parámetros automáticos de la cámara
encontremos en las imágenes grabadas una exposición incorrecta (imágenes más oscuras o
más claras de lo que deberían) y/o dominantes de color, es decir, una tonalidad que "baña"
toda la imagen dándole un aspecto "amarillento", "verdoso", "azulado", etc.

La corrección primaria se encarga de compensar estos fallos básicos y ajustar las imágenes
de tal modo que se acerquen lo más posible a la "neutralidad" o, al menos, al aspecto que se
supone deberían haber tenido esas imágenes. Este primer paso es esencial vayamos realizar
o no manipulaciones de color posteriores. Es decir. Imaginemos que queremos darle a
nuestro vídeo un aspecto tecnológico. En ese caso seguramente querremos que haya una
dominante de colores grises y algunos tipos de azules asociados, generalmente, a la
tecnología. Si no neutralizamos primero en la grabación original cualquiera que sea la
dominante, luego será muy complicado manipular el vídeo para lograr con precisión el tono
deseado. La corrección de color es un proceso muy dinámico y cualquier cambio en una
gama de colores afecta irremediablemente a las demás. Por ello es fácil tener una sensación
de falta de control y sentirse muy perdido al principio si no se cuenta con una buena
corrección inicial.

3.2.2 Correcciones secundarias

Las correcciones secundarias, por su parte, afectan únicamente a determinadas zonas de la
imagen. Casos típicos serían lograr más luminosidad en las caras de los personajes, darle
más intensidad al azul del cielo, ajustar tonos de piel, acentuar o aclarar sombras, etc. Para
este tipo de trabajo nuestros mejores aliados serán las máscaras, la herramienta de
selección de colores y los trackers.

Las máscaras nos permitirán seleccionar ciertas zonas de la imagen y aplicar los cambios
únicamente en esas zonas. Pueden ser máscaras geométricas sencillas, como rectángulos o
elipses, o complejas máscaras personalizadas con la forma que queramos. Por la propia
idiosincrasia del vídeo, lo habitual será que debamos animar las máscaras mediante
keyframes - cuadros de referencia - para que siempre se apliquen a la zona del vídeo que
necesitamos aunque esa zona se desplace o mueva en pantalla. Para estos casos contar con
un buen tracker en nuestro programa de corrección facilita, y mucho, esta tarea de
animación de máscaras. La función del tracker es localizar un punto determinado en la
imagen y generar de forma automática keyframes para que sigan a ese punto. Un ejemplo:
si queremos darle más luminosidad a la cara de un personaje y éste se mueve por la escena
deberemos seleccionar algún punto de la su cara como la boca, nariz u ojos para que el
programa siga la posición de ese punto en todo momento. Luego hacemos que la máscara
siga los puntos de referencia registrados y, de ese modo, la máscara se moverá de forma
automática con ese personaje. No todos los programas de edición, sin embargo, ofrecen esta
herramienta y, además, únicamente los de más alta gama ofrecen un tracker con una
suficiente precisión como para poder confiar en ellos de forma habitual. En la mayoría de
programas encontraremos que, a menudo, resulta más rápido generar keygrames a mano
que con el tracker ya que únicamente funcionarán correctamente en situaciones de buena
iluminación y alto contraste.

Otra alternativa es usar la clásica herramienta del cuentagotas par seleccionar una gama
concreta de colores. El caso típico es seleccionar el azul del cielo e intensificarlo. O el
famoso anuncio de Special K de Kellogs, en el que todo lo rojo tiene mucha más intensidad
que el resto de las imágenes. Éste efecto se logra, simplemente, seleccionando el tono rojo y
aumentado su saturación y/o contraste mientras que, paralelamente, se reduce el de los
demás elementos.
3.2.3 Filtros y efectos para lograr un look determinado
Las correcciones primarias y secundarias son, por lo general, bastante desagradecidas. Es
decir, únicamente sirven para corregir errores y matizar, sutilmente, las imágenes. Es muy
frecuente que tras pasar un buen número de horas trabajando en correcciones primarias y
secundarias el cliente, o quien vea el resultado, pregunte "¿Y qué es lo que has hecho? Yo no
noto nada..." Las diferencias únicamente son notables al comparar las imágenes iniciales
con el resultado final pero el resultado final, por sí sólo, suele dejar al espectador bastante
indiferente. Simplemente está "bien"; lo que no es poco si tenemos en cuenta que si no está
"bien", es que está "mal"... Puede que nuestro producto no sea todavía de excelente calidad
pero, al menos, ya no es mediocre o de baja calidad lo que, insisto, no es poco.

Si además de "bien" queremos que nuestro vídeo destaque, habrá que aplicarle un aspecto,
comúnmente llamado "look", que diferencie nuestras imágenes claramente de las de
cualquier videocámara doméstica. Ahora bien, con el retoque de color sucede lo mismo que
con la banda sonora. Son una ayuda para que el espectador se sumerja en la historia que
contamos. El espectador debe notar que nuestras imágenes le atrapan, que se siente
cómodo, pero no debería saber realmente por qué. El trabajo del colorista, por tanto, debe
pasar tan desapercibido como sea posible y salvo en casos muy justificados la discreción
será la mejor arma.

Aplicar looks específicos es, sin duda, la parte más complicada del retoque de color. En
primer lugar porque se necesitan tener muy claras las ideas sobre el aspecto deseado; y en
segundo lugar porque no siempre resulta sencillo alcanzar ese resultado. El color es, como
ya he comentado, muy dinámico y los cambios son sumativos. Hace falta experimentar
mucho y se aprende poco a poco. Es por ello que casi todas las aplicaciones dedicadas
específicamente al retoque de color ofrecen una colección más o menos extensa de looks
predefinidos que pueden ayudarnos en nuestro comienzos, por un lado, a conseguir esos
aspectos especiales con facilidad de primeras y, por otro, son un excelente punto de partida
para aprender, puesto que en lugar de partir de cero tendremos ya unos puntos de
referencia y podremos fijarnos en los parámetros usados para aprender a lograr los
resultados deseados.

3.3 Herramientas

NOTA: Aunque todas las imágenes ilustrativas están obtenidas del software Color de Apple
los comentarios son extrapolables a otras aplicaciones de gestión de color.

3.3.1 La ruedas de color

Nuestra principal herramienta de trabajo serán las ruedas de color.


Figura 2. Ruedas de color en Apple Color (pincha en la imagen para ampliar)

De izquierda a derecha, estas ruedas nos permitirán controlar los tonos oscuros o sombras,
los medios y los claros o luces altas. Su funcionamiento es estremadamente simple. Por
ejemplo, lo normal en una grabación noctura a la luz de farolas anaranjadas es que, si no se
hace un correcto balance de blancos durante la grabación, nuestro vídeo adquiera una clara
dominante naranja. Para corregirla, simplemente hemos de desplazar el control de la rueda
hacia el color contrario -complementario- del naranja. En este caso el azul. Si la dominante
fuera roja entonces la neutralizaríamos añadiendo cian.

Por simple que pueda parecer, esto es lo único que se hace en la corrección de color.
Equilibrar añadiendo colores complementarios para compensar. La dificultad está,
evidentemente, en saber añadir el tono justo, en la cantidad justa y que afecte únicamente a
las zonas que queremos. Para lograrlo nos apoyaremos en las herramientas que veremos a
continuación.

3.3.2 Niveles

Las herramientas de corrección de niveles nos permiten controlar el contraste modificando
la intensidad de las sombras y luces medias y altas. Así, podremos oscurecer o aclarar
sombras, darle más o menos luminosidad global a la imagen o rescatar o quemar las zonas
más expuestas de la imagen. Podemos controlar la luminosidad de forma global o
modificando cada color primario de forma independiente. La flexibilidad de los niveles
reside en que podemos añadir a las líneas de nivel tantos puntos de control como
queramos, lo que ofrece una gran flexibilidad a la hora de modificar las sobras, medios y
altos de cualquiera de los tres colores primarios de forma independiente, o bien de los tres
de ellos a la vez. Los usuarios de Photoshop están ya más que familiarizados con esta
herramienta.


Figura 2.1 Controles de niveles

3.3.3 Histogramas

En la corrección de color el ojo es el juez final indiscutible. El trabajo será correcto siempre
que nuestro ojo, o el del cliente, nos diga que está correcto. Sin embargo, y como ya he
comentado, el proceso de corrección es dinámico y es esencial contar con una buena
corrección primaria antes de aplicar cualquier look o efecto. Es por ello que aunque le
reservemos a nuestros ojos el veredicto del resultado final es más que conveniente usar
diversas herramientas de valoración totalmente objetivas que nos ayuden a comprobar si
nuestras percepciones son correctas.

De todas estas herramientas la más conocida es, sin duda, el histograma. Prácticamente
toda las cámaras fotográficas digitales cuentan con una opción para mostrar un histograma
durante o tras la toma. La mayoría de usuarios suelen ignorarlo o, simplemente,
desactivarlo, pero el histograma es una herramienta extremadamente útil para verificar que
la exposición de la imagen sea correcta y que cuenta con un buen reparto de luces y
sombras que garanticen el contraste deseado para la imagen.

El histograma muestra una representación estadística del número de píxeles que hay en la
imagen con una determinada luminosidad. Si estamos trabajando con imágenes de 8 bits la
escala tendrá 256 pasos representados por delgadas barras. Si trabajáramos con imágenes
de 10 bits entonces la escala tendrá 1.024 pasos. Las barras de la izquierda muestran los
píxeles de sombras mientras que las barras de la derecha nos mostrarán los tonos altos.
Veamos algunos ejemplos:


Figura 3. Imagen de ejemplo 1 para análisis de histograma


Figura 4. Histograma de la imagen de ejemplo 1

En este histograma se ve claramente cómo la "montaña" de barras que hay hacia la
izquierda muestra que estadísticamente abundan tonos de sombras y medios-oscuros (el
mar) y cómo hay unos pocos tonos altos, que en este caso se corresponden con los blancos,
grises y amarillos de la gaviota.


Figura 5. Imagen de ejemplo 2 para análisis de histograma


Figura 6. Histograma de la imagen de ejemplo 2

En este otro ejemplo vemos que una gran parte de los píxeles que componen esta imagen
está situados en tonos altos (los picos altos de la derecha). Es fácil identificar las barras de
la derecha (zona de tonos altos) con el cielo. La "colina" de barras en la zona de tonos
medios se correspondenría a la mezquita y, finalmente, el montoncito más pequeño de la
izquierda se correspondería con la zona inferior de la imagen, en la que están árboles, el
edificio más pequeño y otras zonas oscuras de la imagen.

En estos tres ejemplos hemos usado histogramas que únicamente mostraban la
luminosidad, pero también podríamos visualizar histogramas de color con los que poder
analizar la luminosidad de cada color primario de forma independiente.

Figura 9. Histograma RGB de ejemplo
3.3.4 Parade
Como acabamos de ver, los histogramas son una herramienta muy útil para ayudarnos a
controlar el contraste de la imagen. Sin embargo, esa información es estadística. Es decir,
nos muestra qué cantidad de píxeles tienen una luminosidad u otra pero no nos muestra
dónde, exactamente, están localizados esos píxeles en la imagen. En los dos ejemplos
anteriores era muy fácil distinguir los elementos porque cada uno de ellos tenía una
luminosidad claramente diferente. Sin embargo, en la siguiente imagen resulta muy
complicado distinguir los elementos mirando únicamente el histograma.


Figura 10. Imagen de ejemplo 3


Figura 11. Histograma de la imagen de ejemplo 3
En esta imagen la luminosidad está muy repartida por eso no hay ninguna barra
excesivamente alta. Estadísticamente los píxeles están bastante repartidos por toda la gama
luminosa y es difícil diferenciar a qué elemento de la imagen se corresponde cada zona.
Está claro que la parte más elevada, la que se encuentra a la izquierda, se correspondería
con el asfalto de la pista de aterrizar, pero resulta bastante más complicado distinguir entre
el fuselaje y el cielo.

En lugar de tratar de explicar para qué sirve la herramienta parade vamos a ver si se
entiende mirando los siguientes ejemplos:


Figura 12. Parade de la imagen de ejemplo 3


Figura 13. Parade superpuesto en la imagen de ejemplo 3

Como se aprecia en la figura 13, la diferencia con el histrograma es que el parade sí que
muestra la ubicación de los píxeles con respecto a la imagen. Así, se aprecia claramente que
la parte izquierda de la imagen es la más oscura (en la parte izquerda del parade los píxeles
están muy bajos en la escala) y que en la zona donde está saliendo el sol hay un gran
reparto de píxeles que abarcan desde el máximo de luminosidad, que se corresponde con el
sol, a los que tienen el valor mínimo (suelo, ruedas...)

Veamos ahora los parade de las dos imágenes de ejemplo anteriores:


Figura 14. Parade de la imagen de ejemplo 1


Figura 14. Parade superpuesto en la imagen de ejemplo 1

En este ejemplo se ve claramente qué píxeles corresponden a la gaviota y cuáles al mar.


Figura 15. Parade de la imagen de ejemplo 2


Figura 16. Parade superpuesto en la imagen de ejemplo 2
En este último ejemplo la mezquita y los árboles quedan más confusos pero, sin embargo,
destacan claramente el cielo y los minaretes.

Como acabamos de ver, dependiendo del tipo de imagen la herramienta parade puede
sernos de más utilidad para analizar una imagen que el histograma. Sin embargo, todavía
no hemos visto la verdadera potencia del uso de parades. Los parades de las imágenes
anteriores muestran únicamente de la luminancia pero, al igual que sucede con los
histogramas, también podemos ver parades separados por color. Veamos los de las
imágenes anteriores:

Figura 17. Parade en color de la imagen de ejemplo 1


Figura 18. Parade en color de la imagen de ejemplo 2


Figura 19. Parade en color de la imagen de ejemplo 3
Los parades RGB son, en mi opinión, la herramienta más útil para detectar dominantes de
color. Los blancos, grises y negros se caracterizan por tener la misma cantidad de rojo,
verde y azul. Por tanto, las alturas de parade deberían ser similares en esas zonas superior,
de tonos altos, e inferior, en la de sombras. Si un color determinado está más alto que otro
en esas zonas eso quiere decir que hay un color dominante. Lo veremos más adelante con
un ejemplo.

3.3.5 Vectorscope

La herramienta vectorscope es un círculo dividido en zonas cromaticas (rojo, magenta, azul,
cian, verde y amarillo) que nos proporciona una información inestimable a la hora de
conocer la variedad cromática y saturación de una imagen. Veamos en análisis en
vectorscope de las imágenes anteriores:



Figura 20. Anális vectorscope de la imagen de ejemplo 1

Como era de esperar, en el vectoscope vemos cómo hay una gran cantidad de píxeles en la
zona cian-azul. Esos píxeles son, además, de bastante intensidad, es decir, bastante
saturados, ya que están bastante alejados del centro. El blanco/gris de la gaviota, por
contra, queda representado en el centro.



Figura 21. Anális vectorscope de la imagen de ejemplo 2

En este vectorscope vemos cómo a excepción del verde, el resto de colores son bastante
claros ya que están todos bastante cerca del centro. El cielo está prácticamente entero en la
zona azul mientras que la mezquita está, prácticamente en su totalidad, en la zona roja,
aunque tiene algo de amarillo. Por último, vemos como el verde de los árboles es bastante
más oscuro que el resto de tonos y, además, no es tan uniforme, estándolo los píxeles
repartidos entre el verde y el amarillo.



Figura 22. Anális vectorscope de la imagen de ejemplo 3

En este último vectorscope se aprecian con claridad la dominante anaranjada del sol
presente en la mayoría de píxeles: desde el blanco hasta el negro. También se ve claramente
el azul del logo de las alas y de la parte metálica del avión.

3.3.6 Otras herramientas

Para terminar este apartado quisiera mencionar que aunque no las voy a analizar, hay más
herramientas de análisis además de los histogramas, parades y vectorscopes. Sin embargo
creo que estas tres herramientas son las más sencillas de utilizar y se pueden lograr
excelentes resultados trabajando únicamente con ellas. Si estás interesado puedes consultar
la documentación de tu programa de corrección de color u otras obras de referencia.

3.3.7 La verdadera importancia de las herramientas de análisis

Aunque las herramientas de análisis de imágenes son de utilidad con cualquier clip de vídeo
aislado, tal y como veremos en el siguiente apartado, la verdarera importancia de las
herramientas que acabamos de analizar aparece a la hora de igualar clips de vídeos
grabados en diferentes situaciones de iluminación o con videocámaras diferentes.
Comparar los histogramas, parades y vectorscopes resulta clave para que dos planos
consecutivos tengan las mismas cualidades visuales y no haya "saltos" de tonos que
sobresalten al espectador. Con los histogramas podremos comprobar que todos los planos
están iluminados de forma similar, con los parades igualaremos el tono y, finalmente, con el
vectorscope podremos comprobar que la saturación de todos los planos de la escena es
similar.

Aunque podríamos hacer las tareas de igualación de planos sin usar estas herramientas el
ojo, cuando lleva un rato analizando colores, se cansa y cuanto más tiempo pasemos
corrigiendo color más difícil encontraremos visualizar los sutiles matices entre un plano y
otro. Estas herramientas objetivas serán siempre unas excelentes aliadas.
4. Casos prácticos

4.1 Correcciones primarias: corregir un color dominante

Esta imagen se obtuvo en unas terribles condiciones de iluminación. Había muy poca luz y,
además, la luz era roja. Consecuentemente hay una más que evidente dominancia del rojo
en esta imagen incluso a simple vista.


Figura 23. Ejemplo de rojo dominante

Vamos a analizarla:

Figura 23. Análisis imagen con rojo dominante (pincha para ampliar)

Histograma: Vemos claramente una mayor cantidad de píxeles rojos en los tonos altos
que en el resto de colores primarios

Vectorscope: Da miedo mirarlo... ¡no hay gama cromática! Todos los colores de la imagen
son variantes del rojo. No hay otro color. Sólo rojo...

Parade: De nuevo, la dominante del rojo en los tonos altos resulta más que evidente.

Veamos el resultado tras la corrección:


Figura 24. Imagen de ejemplo de rojo dominante corregida

En este caso no se ha podido hacer mucho más. Además de las malas condiciones de
iluminación esta escena se grabó usando una videocámara doméstica AVCHD que, como ya
sabemos, graba con una profundidad de color de 8 bits y submuestreo 4:2:0. Como se
puede comprobar fácilmente, la mejora con respecto a la imagen original creo que es más
que evidente. Pero de haber contado con un orginal con menos pérdida de color
hubiéramos podido rescatar una gama de colores mucho mayor y el resultado final habría
sido notablemente mejor. De ahí la importancia de grabar con una videocámara con
submuestreo 4:2:2 y/o profundidad de color de 10 bits, especialmente en condiciones
difíciles como la del ejemplo. Pero analicemos la imágen con más detalle:


Figura 25. Análisis imagen con rojo dominante corregida (pincha para ampliar)

Histograma: La reducción de rojos en los tonos altos es más que evidente. Vemos ahora,
sin embargo, que contamos con más tonos medios de verde.

Vectorscope: ¡Vaya cambio! Hemos conseguido rescatar azules y verdes y la gama de
rojo-naranja es ahora mucho más ancha, y no tan reducida como antes.

Parade: Ahora vemos que el parade es mucho más similar en los tres colores primarios

Veamos qué hemos hecho en las ruedas de color:


Figura 26. Ajustes en las ruedas de color para la corrección del rojo dominante (pincha para
ampliar)

Antes de empezar a corregir vemos que hay tres círculos de color con tres barras verticales a
la derecha de cada círculo. Vemos también en cada círculo dos líneas perpendiculares que
se cruzan en un punto blanco. El punto blanco nos indicará la corrección que hemos
aplicado con respecto a la imagen original, que queda marcada por la cruz gris que hay
justo en el centro del círculo.

Las dos primeras barras verticales se ajustan automáticamente cada vez que modificamos el
punto de control con el ratón. La tercera barra, la del extremo derecho, no queda afectada
por las correcciones de color porque su función es ajustar los niveles de luminosidad en las
sombras, tonos medios y tonos altos respectivamente (de izquierda a derecha) de un modo
global; más simple que con la herramienta de niveles que vimos en el punto 3.3.2. Al menos
en el software Apple Color. Esta ubicación cambiará en otras aplicaciones, pero el método
de trabajo sería el mismo.

En este ejemplo no hemos tocado las sombras. Vemos, por tanto, que el puntito blanco se
mantiene en el centro en el círculo de la izquierda.

En los tonos medios, el círculo del centro, podemos observar que hemos desplazado
ligeramente el punto de control hacia verde. También hemos incrementado la luminosidad
en esa zona. Podemos saberlo por la marca azul señalada con la flecha en la tercera barra
vertical. Originalmente esa marca está siempre en la mitad de la barra. Sin embargo, en la
corrección vemos que hemos aumentado la luminosidad en los tonos medios algo más de
1/4.

Por último, vemos que el círculo de tonos altos, el de la derecha, hemos tenido que añadir
mucho azul-cian para cotrarrestar el rojo-naranja dominante. También vemos que hemos
rebajado los tonos altos un 20% aproximadamente para compensar la subida de medios. En
principio, la barra de niveles en los tonos altos se sitúa siempre en la parte superior.
4.2 Correcciones secundarias: mejorar lo bueno

En el ejemplo anterior hemos visto cómo solucionar un problema. Veamos ahora cómo
mejorar una imagen que, de entrada, era bastante buena.


Figura 26. Imagen de ejemplo para corregir secundarios

Realizaremos los siguientes pasos:

1. Acentuar todavía más las siluetas y sombras "chafando" las sombras y convirtiendo los
tonos más oscuros en negros
2. Puesto que la imagen es casi en blanco y negro, vamos a quitarle algo de azul al cielo
3. Centrar la atención del espectador exclusivamente en las siluetas de las personas, ya que
el banco de la izquierda distrae un poco a los ojos.

El primer paso es muy sencillo y lo haremos con las barras de nivel que vimos junto a las
ruedas de color en el apartado anterior.

Para el segundo paso y tercer paso definiremos dos máscaras rectangulares: una que
abarque todo el cielo y otra que abarque todo lo que queda justo por debajo del cielo:


Figura 27. Máscaras para la corrección de secundarios

Finalmente, defineremos una máscara ovalada alrededor de las siluetas. Mantendremos la
luminosidad original de esa zona y oscureceremos todo lo demás. Para que el cambio no sea
brusco aplicaremos un difuminado de la máscara para que la transición sea suave:


Figura 28. Máscaras difuminada para la corrección de secundarios

Y éste es el resultado final...


Figura 29. Resultado final de la corrección de secundarios


Figura 30. Compara esta imagen con la anterior

5. Looks

Como acabamos de ver, sólo con correcciones primarias y secundarias podemos mejorar, y
mucho el aspecto de nuestros vídeos. Pero una vez que hemos corregido todos los clips y el
vídeo tiene un aspecto uniforme en su totalidad podemos llegar un paso más allá y darle un
aspecto único. Un "look" personal que lo diferenciará claramente del vídeo "normal y
corriente" de cualquier videocámara.

Para lograr un look personalizado a menudo hace falta mezclar varios filtros diferentes
combinando diversas técnicas, por lo que no es fácil para los no iniciados en la corrección
de color. Es por ello que la mayoría de programas de corrección de color suelen ofrecer una
colección más o menos extensa de looks prefefinidos. Veamos algunos de los looks que
ofrece Color de Apple:


Figura 31. Muestra de algunos de los looks ofrecidos por Apple Color

Veamos algunas muestras aplicadas a un vídeo real:


Figura 32. Look original


Figura 33. Look de ejemplo 1


Figura 34. Look de ejemplo 2


Figura 34. Look de ejemplo 3


Figura 35. Look de ejemplo 4

Para comprender la complejidad de algunos de estos looks veamos tan sólo un ejemplo de
cómo se genera uno de ellos:


Figura 36. Área de generación de looks en Apple Color
Explicar en detalle cómo se generan efectos requeriría, de por sí, todo un documento tan
extenso al menos como éste. Sin embago, creo que con esta breve introducción cualquiera
que esté interesado se animará a probar y experimentar que, de hecho, es la mejor manera
de aprender a corregir color y crear looks.

6. Prevenir es mejor que curar

6.1 La corrección de color ANTES de empezar a grabar
Por extraño que pueda parecer, la corrección de color debería empear antes incluso de
empezar a grabar. Si tenemos claro qué tipo de look final vamos a querer para nuestra
producción conviene plantearse qué elementos deberían o no aparecer en pantalla desde un
primer momento, durante la planificación del storyboad. Todos tenemos claro, por ejemplo,
que en un vídeo romántico deberían prevalecer todos cálidos o que una escena de terror
estará marcada por sombras y altos contrastes. Los elementos que aparezcan en imagen
durante las grabaciones deberían, por tanto, ajustarse a esa idea y cuidar, en la medida de
lo posible, el color del vestuario de los personajes y objetos de decoración y, si es posible,
buscar localizaciones en las que predominen los tonos que buscamos.

Esta planificación requiere mucho esfuerzo y dedicación y, sobretodo, tiempo. Pero si
queremos estar un paso más allá de los demás deberíamos plantearnos esta selección de
colores desde el incio. Quizás no podamos controlar TODO lo que aparezca en TODOS los
planos; pero si podemos controlar al menos un par de ellos, eso siempre ayudará a mejorar
el "sabor" final que tendrá nuestra producción.

6.2 Control del color durante la grabación

En apartados anteriores hemos visto cómo equilibrar imágenes para corregir desviaciones
pero... ¿no sería mejor hacer una grabación correcta y evitar correciones posteriores? Lo
primero que deberíamos asegurarnos durante cada grabación es hacer un blance de blancos
correcto. Un editor de vídeo no siempre tiene control sobre las imágenes que le llegan pero,
si tenemos algún tipo de influencia con el cámara que realiza las grabaciones o si realizamos
nosotros mismos la grabación, los mejores resultados se logran utilizando una tarjeta de
grises en el momento de realizar la grabación. Su uso es muy sencillo. Se colocan en la
escena a grabrar y nos aseguramos que aparezcan en plano unos segundos yluego se retira.
Mientras no cambien las condiciones de iluminación, no es necesario volver a usarla. Estas
tarjetas de grises están fabricadas con unos tonos exactos que nos servirán como referecia a
la hora de equilibrar rápidamente y con precisión nuestras escenas. Durante la corrección
de color sólo debemos usar la herramienta cuentagotas para "medir" el color de las tarjetas
y realizar los cambios necesarios para corregir cualquier desviación y que las tarjetas
siempre tengan su color de referencia. De ese modo, nos aseguraremos siempre de contar
con unas imágenes bien equilibradas.

Las tarjetas de grises más usadas son las de Kodak, GretagMacbeth o Munsell, Robin Myers
y WhiBal.


Figura 37. Juego de tarjetas de grises para el balance de blancos

7. Cómo asegurarse de ver bien los colores

7.1 Calibrando el monitor

Todo lo indicado en el apartado anterior puede sonar muy interesante pero, si la pantalla de
nuestra videocámara muestra unos colores, nuestro monitor otros y, finalmente, la
televisión donde visualizamos el resultado final muestra otros distintos ¿cómo podemos
estar seguros de cuál está mostrando el color “verdadero”? ¿Cómo podemos estar seguros
de que las correcciones de color que estamos haciendo en nuestra pantalla se verán igual en
otras? Es evidente que cada pantalla tiene unas cualidades técnicas diferentes que hace que
sea imposible representar de forma idéntica una misma imagen en cualesquiera dos
pantallas. Para empeorar las cosas, cada una cuenta con una serie de ajustes -contraste y
brillo al menos- que hace que incluso dos pantallas del mismo modelo muestren diferencias
según cómo estén ajustadas. Es más, con el paso del tiempo las cualidades de una misma
pantalla varían por el desgaste físico que sufren sus componentes. A pesar de todo, en el
vídeo digital los colores son números, a fin de cuentas, y los números sí que se pueden
manipular con precisión. Esto nos permite que, hasta cierto punto, sí que podamos
controlar el color de nuetros vídeos; desde que llegan a nuestra videocámara hasta que los
visualizan los destinatarios.

El primer paso total y absolutamente imprescindible es calibrar la pantalla de nuestro
ordenador. Aunque es posible calibrar una pantalla mediante software -a muchos les sonará
Adobe Gamma para Windows- sólo unos pocos privilegiados cuentan con la suficiente
destreza y agudeza visual como para hacerlo medianamente bien. Descartaremos, por tanto,
la calibración por software y buscaremos alguno de los múltiples dispositivos de calibración
para pantallas que hay en el mercado, que van, desde algo menos de 100 euros a poco más
de 300. Los más caros, además de calibrar pantallas CRT y TFT, también permiten calibrar
cañones de vídeo; lo que resulta más que interesante si solemos hacer proyecciones. A la
hora de comprar un calibrador busca las marcas X-rite, Datacolor, Pantone o LaCie y
recuerda recalibrar al menos una vez al mes.

7.2 Iluminación ambiental

Una vez calibrado nuestro monitor ya tendremos la certeza de que mostrará los colores con
fidelidad. No obstante, hay ciertos aspectos que pueden falsear los colores mostrados en
pantalla y que debemos tener en cuenta. En primer lugar, el monitor necesita cierto tiempo
de funcionamiento para estabilizar los colores, debiendo estar encendido durante al menos
30 minutos antes de hacer cualquier trabajo serio de color. La luz ambiente de la habitación
en la que trabajemos es otro aspecto esencial. Debemos evitar la luz diurna, que es
cambiante a lo largo de día, y la iluminación de la sala debe ser constante y suave, no
superior a la producida por el monitor, y preferiblemente fluorescente y lo más cercana a
los 5.000º K que sea posible. También es importante evitar que la luz incida sobre el
monitor, para lo cual pueden ser útiles unos "parasoles" se se pueden conseguir con
facilidad en cualquier tienda especializada de fotografía.

El color de fondo de nuestra pantalla también es un aspecto clave que influye en nuestra
percepción del color. Si te fijas, programas como Adobe Brigde, Photoshop o Apple Color,
destinados a trabajar con imágenes, tienen una interfaz grisácea. Evita, por tanto, tener de
fondo de pantalla la foto de tus últimas vacaciones o de tu cantante favorito y elige un tono
gris. Por último, para evitar la fatiga y la insensibilización a las variantes de color es
recomendable descansar cada 30 minutos aproximadamente alejando la mirada de la
pantalla y, si es posible, mirar un rato hacia el exterior enfocando nuestros ojos al infinito
para relajar los músculos involucrados en la visión.
7.3 Usar una tarjeta de E/S de vídeo en lugar de la tarjeta gráfica

Aunque los televisores y monitores LCD usan una tecnología muy similar, puede que
después de tener nuestro monitor perfectamente calibrado nos llevemos alguna sorpresa al
comprobar que los colores en un televisor no son los mismos. El motivo es las imágenes que
vemos en nuestro monitor de ordenador están corregidas por el perfil de color que hemos
creado al calibrar la pantalla. Sin embargo, los televisores no se calibran. Bueno, a decir
verdad lo que no se hace es crear un perfil de color, porque sí que podemos calibrarlos
ajustando el brillo y contraste y, en algunos modelos, la temperatura de color.
La solución a este problema pasa por usar una tarjeta de entrada y salida de vídeo, como la
BlackMagic Intensity Pro o la Matrox MXO2 Mini analizadas aquí. Estas tarjetas le envían
el vídeo a un monitor o televisor externo sin usar los perfiles de color del sistema operativo
y, por tanto, podremos visualizar el vídeo tal y como lo veríamos si en lugar de reproduirlo
desde nuestro ordenador lo hiciéramos desde un DVD o Blu-Ray. Estas tarjetas son
imprescindibles si buscas precisión.
8. Epílogo

Quien haya tenido la "valentía", ganas y tiempo libre de leerse este documento al completo
tendrá, espero, unas buenas nociones básicas sobre correción de color. He de decir,
sinceramente, que es uno de los documentos que más orgulloso estoy de haber escrito. Su
contenido es el resultado de más de tres años de aprendizaje y contiene todo lo que a mí me
hubiera gustado leer cuando empecé.
No obstante, la práctica es, sin duda, la mejor manera de aprender la corrección de color.
Tiempo; mucho tiempo y práctica. La corrección de color es algo tan subjetivo y personal
que no se pueden dar normas y consejos rígidos y lo importane es que TÚ te sientas cómodo
con tus correcciones. Con el tiempo, aprenderás sin darte cuenta y te dará vergüenza echar
la vista atrás y ver tus primeras correcciones... y cada vez lograrás hacerlas mejor y con más
rápidez.
Etalonaje digital
Tradicionalmente el etalonaje ha sido un proceso de laboratorio cinematográfico, que
mediante procesos fotoquímicos conseguía igualar el color, la luminosidad y el contraste de los
diferentes planos que formaban las secuencias de una película de cine. Con la llegada del cine
digital, el concepto de Etalonaje ha pasado también a utilizarse en este medio para definir
todo el proceso de posproducción que hace referencia a la corrección de color y a conseguir la
apariencia adecuada de cada secuencia en función de la narrativa de la misma. Lejos de los
complejos procesos de laboratorio fotográfico, el Etalonaje digital se realiza en ordenador y
utiliza programas de corrección de color específicos que proporcionan todos los controles
sobre algo tan subjetivo como es la percepción del color. En cine digital el retoque de color es
imprescindible para garantizar la calidad del resultado final.
La calidad del original
Cuanta mayor calidad tenga el original más flexibilidad tendremos a la hora de
manipular el color. Si el original es de mala calidad o ha sufrido mucha perdida en la
información de color, su corrección y manipulación se hace prácticamente imposible.
Por tanto, lo primero es conservar la máxima calidad de información de color posible en
todos los pasos del proceso, más aun si tenemos en cuenta que cualquier proceso de
corrección de color deteriora siempre la información original. Todos los parámetros
influyen en la calidad de las imágenes, desde el objetivo de la cámara, al formato de
compresión utilizado, pasando por el el submuestreo, el tipo de CCD.... Etc.
Programas para el etalonaje digital
Hasta no hace mucho tiempo el etalonaje digital estaba reservado a plataformas
especializadas y a sistemas de tratamiento de color muy avanzados, actualmente la
corrección de color esta prácticamente al alcance de cualquiera, y casi todos los
programas de edición de video cuentan con herramientas necesarias para realizar estos
ajustes. Podemos distinguir, no obstante, dos tipos de aplicaciones o software, según
estén destinados al uso en ordenadores personales, especialmente para realizar
correcciones en formatos HDTV, o a su utilización en plataformas especificas
destinadas al cine digital 2K, 4K y 3D:
HDTV:
 “Color” integrado en Final Cut Studio de Apple
 “Adobe Premiere Pro”
 “Vegas” de Sony
 “Grass Valley Edius"
Cine Digital:
 "Quantel"
 “Lustre”
 “Base Light”
 “Iridas”
El proceso del Etalonaje (flujo de trabajo)
El proceso para la realización del etalonaje digital pasa básicamente por tres pasos:
Correcciones primarias
En esta primera fase del proceso se realizan ajustes básicos como, la luminosidad, el
ajuste de contraste y la corrección de dominantes de los planos. Se trata de dejar la
imagen NEUTRA y en sus mejores parámetros de luz, color y contraste.
Correcciones Secundarias
En este paso, se efectúan correcciones ya mas específicas y concretas, sólo en partes de
la imagen, por ejemplo se cambian colores muy concretos, o se dan dominantes a zonas
muy determinadas de la imagen. Las herramientas más utilizadas en este paso son las
máscaras, herramientas de selección de colores y los “trackers”.
Filtros y Efectos
Por último, una vez realizadas todas las correcciones necesarias en los pasos anteriores,
se pasa a darle a cada secuencia el “look” deseado de acuerdo con las exigencias
narrativas de cada secuencia. Esta es una de las partes más complicadas y subjetivas de
proceso, ya que, no todos vemos o entendemos de igual forma las sutiles diferencias o
dominantes de color. En cualquier caso, las correcciones realizadas han de pasar
siempre desapercibidas y han de potenciar en todo momento la narrativa de cada
secuencia.
Herramientas
Las herramientas de trabajo en la corrección de color nos ayudan a manipular los
parámetros de color, contraste y luminosidad de las imágenes , y tenemos que estar
familiarizados con su funcionamiento, ya que son los únicos elementos que van a
proporcionar una información objetiva de las características de color de las tomas.
Básicamente contamos con herramientas de dos tipos, por un lado están las que nos
permiten ver objetivamente la información de luminosidad, color y contraste (Parades,
Vectorscope, histogramas) y por otro lado aquellas herramientas que nos permiten
manipular esa información de color de las imágenes (Ruedas de color, curvas de
niveles).
Ruedas de color:
Las ruedas de color se utilizan para corregir o dar dominantes a las imágenes, suelen
tener controles de color, saturación y luminosidad. Normalmente hay una rueda de color
para las sombras, otra para los medios tonos y otra para las luces.

Curvas de niveles
Las curvas de niveles permiten ajustes mas finos de la luminosidad y contraste de la
imagen, normalmente se dispone de una curva por cada color primario y otra curva para
la luminosidad general de todos los colores de la imagen.

Parade o curvas de luminosidad
Los parades nos muestran la información en tantos por cientos de luminosidad de las
imágenes, de forma que el 0% es el negro y el 100% es el blanco, podemos visualizar
parades de luminosidad generales o bien visualizar la luminosidad de cada uno de los
colores primarios (Rojo, Verde, Azul).
Vectorscope
El vectorscope nos da información de los colores que aparecen en la imagen y de su
saturación, como su nombre indica nos muestra mediante vectores la información de
color de la señal de vídeo de la imagen, de forma que el ángulo nos informa del color
que es y su longitud de la saturación.