Análisis y artículos
La gran evolución del HDR (II)
La guerra de los NITS
Este es probablemente el asunto más complicado de manejar, por lo controvertido, extenso de explicar y difícil de entender.
Los fabricantes, además, se han encargado de generar mucha confusión al respecto. Y la norma, aunque definida, no siempre queda clara.
Empecemos por lo primero, LA NORMA.
Todo este asunto de la luminancia y los nits no sale de un oscuro callejón y con intenciones poco claras. La norma es clara y así lo reflejan los documentos VESA, ITU y DCI implicados en ellos:
Esta captura pertenece al libro «Optimal Audio and Video Reproduction at Home: Improving the Listening and Viewing Experience«, que puedes comprar en el enlace señalado. No te preocupes, no lleva referido 🙂
De esa tabla, más que fijarnos en la «tolerancia«, debemos fijarnos en el «objetivo» (Target), el cual define 1000cd/m2 o NITS para un 10% de área de la imagen en HDR.
Al menos en el estado actual en el que nos encontramos en 2020, esta es la información que tenemos que tomar como referencia.
En la siguiente tabla, se puede ver como la gran mayoría de películas masterizadas en HDR, se hacen bajo los 1000cd/m de pico:
Vamos a dividir ésta «guerra» en tres contendientes, para que se entienda cada punto de vista…
Los fabricantes
Los fabricantes son expertos en crear muchas palabras bonitas vacías de contenido. Se inventan formatos HDR que no existen, ofrecen datos magnificados y causan más confusión al usuario, que se ve bombardeado ante muchos logos bonitos y términos que no sabe para que sirven, pero «molan mucho».
Generalmente cuando un fabricante da un valor de pico de nits, suele omitir ya de principio el «pico», dando a entender que su televisor es capaz de ofrece 2500 nits a toda pantalla.
Obviamente, cualquier persona mínimamente informada, sabrá inmediatamente que estos valores no son globales, sino locales.
Luego, ese valor de pico, corresponde habitualmente a un modo de imagen que no es precisamente el mejor, como el modo vivo o dinámico. Incluso el modo «tienda», donde el televisor claramente supera todos los márgenes, porque lo que busca es destacar.
Y es que cuando alguien va al centro comercial de turno y se enfrenta a esto:
Pues se lleva la «palma» el televisor que más destaque. Por desgracia esto es así en la mayoría de casos.
En pocos sitios encontraremos un televisor correctamente ajustado (¡ya no digamos calibrado con sonda!), y en un ambiente luminoso adecuado, sin otros televisores interfiriendo. Es una situación ideal que prácticamente nunca se produce.
Por si fuera poco, comerciales sin escrúpulos en vez de asesorar y elegir el producto que más se adecúe al cliente, intentan vender «su moto» particular, porque van a comisión de venta. Poco le importa si ese televisor 8K que nunca se compraría, no es el adecuado para ese cliente despistado. Si puede, se lo endilgará diciendo lo bien que va a ver el programa de la TDT de moda y las películas. ¡Compre, compre!.
Por supuesto, no todos son así, los hay que asesoran y ayudan a elegir. No olvidemos que son pocos los realmente informados. La mayoría se guían por fotos de catálogo, o de Internet, de qué televisor le parece más «luminoso» o «más colorido» y luego ya el vendedor de turno remata todo.
Por supuesto, los fabricantes han ido evolucionando los televisores durante este tiempo, y los modelos más actuales representan de mejor forma el HDR que los modelos anteriores. No de forma «brutal», sino de forma ligeramente mejor, o significativa en según que casos.
Cuando llega la nueva norma, todo es un caos. En cierta forma, lo sigue siendo actualmente. Se definen NUEVAS REGLAS, para las que poca gente está preparado, se toman nuevos vicios, y surgen nuevos inconvenientes.
Si resulta que la nueva meta son esos 10.000 nits (que son una absoluta burrada de luz), ¿cómo van a llegar a ellos estos displays que no son capaces de llegar a 200 nits?. Oh, vaya.
La solución, obviamente, pasa por «meter más luz», pero eso significa más consumo, y los reguladores energéticos no están por la labor…no nos van a dejar tan fácilmente hacer lo que queramos.
Es decir…¿se puede ACTUALMENTE tener un display que ofrezca…5000 nits?. SI. Pero no te van a dejar. Porque primero…consume muchísimo. Segundo, genera un calor abrasador (que se lo digan a los que «sufren» el Dolby Pulsar). Tercero, «la potencia sin control»…¿os suena ésto?. REGLAS.
Hay que poner un poco de orden, así que la UHD Alliance propone unas reglas, que intentan definir un poco todo este caos, dando las cifras ya conocidas sobre las dos tecnologías de display actuales:
0.05cd/m – 1000nits (LCD)
0.0005cd/m – 540nits (OLED)
¿Porqué esa disparidad?. Es fácil: CONTRASTE. A un mayor contraste, necesitas menos luminancia para dar la misma sensación. Por eso, y solo por eso, un panel autoemisivo a nivel de pixel, necesita menos nits de potencia para igualar a otro que no puede ofrecer esa tasa de contraste.
Si ves la siguiente demo de Dolby Vision en un televisor:
DESCARGAR DEMO
Verás una parte donde se genera un contraste brutal, ésta:
Probablemente cuando la veas, la intensidad de esa imagen te deslumbrará (a oscuras) y pensarás que tiene miles de nits, ¿verdad?.
Pues…no. Esta parte de la demo en concreto, no llega a los 800 nits, y sin embargo causa una sensación de brillo desmesurado. Es más, lo causa más en un televisor OLED o LCD FALD con muchas zonas que en un LCD normal, precisamente por eso…la relación de contraste. Aquí tienes la luminancia medida con el vectorscopio, por si no lo crees:
Y luego aquí llegamos a otra «guerra», que tiene como contendientes los LCD y los OLED. Es un tema peliagudo donde elegir bando es meterse en jardines complicados, y sin embargo, tanto fabricantes, como profesionales, están de acuerdo en que la tecnología que se llevará el gato al agua…está aún por llegar. Pero eso lo veremos en la tercera parte 🙂
Los profesionales
El mundo profesional de la imagen es un mundo «atado» a normativas, medidas exactas, patrones, sondas y números fríos. Y oscuridad, mucha oscuridad. Pero es ahí donde está el detalle, ¡en la oscuridad!
Al fin y al cabo de ellos depende en gran medida la imagen que vemos finalmente en nuestras casas, y son los responsables directos de ellas.
Nosotros como usuarios, somos nada más que espectadores, como el que va al cine y acepta que lo que ve «es lo correcto», nos guste estéticamente o no.
El mundo SDR es relativamente sencillo. La intensidad o escala de la imagen va de de 0 a 100 IRE. Todo esto «suena» muy viejuno, pero es que lo es…son medidas de voltaje en el mundo analógico cuando se definió la norma.
En el mundo del cine todo está milimétricamente calculado. Da igual si el proyector puede superar los 48 Full Lamberts que es considerado como la BASE de todo, la luz se REGULA para que ofrezca exactamente esa luminosidad. Ni más, ni menos. Porque cuando se graba una película, una serie, un «lo que sea», se tiene en mente esa serie de reglas, que todos, absolutamente todos tienen que seguir.
El mundo HDR, por contra, es un recién nacido y aún estamos experimentando con él. Ni siquiera los coloristas con más conocimientos y reputación tienen bien claro el camino y recorrido a seguir y nos vamos adaptando a ello paulatinamente.
Cuando hace unos 15 años se empieza a grabar con cámaras digitales que permiten HDR (sí, esto no es algo de hace 5 o 6 años), se empieza a valorar el poder ver esas imágenes en un display acorde. Hasta entonces, han dormido el sueño de los justos.
Vale, no exactamente porque precisamente gracias a esa latitud con la que graban, permiten más flexibilidad en postpro, y poder sacar el máximo jugo a la imagen. Pero aún así, se perdían cosas por el camino.
Pese a que en una imagen «tipo» el 90% de ésta está contenida en el rango de los 100-200 ire, hay o puede haber partes de la imagen que se beneficien de ese «extra» de luminancia. Sea el que sea.
Los siguientes ejemplos muestran como la mayor parte de la imagen queda reducida a esos 100-200 IRE (NITS), ofreciendo solo el máximo de nits en las partes más luminosas.
En realidad, el HDR permite meter más información visual que antes se perdía, sobre todo en las altas luces, porque las bajas están más que cubiertas dentro del rango 0-100. Técnicamente, cualquier imagen que supere los 100 IRE, es considerada HDR, pues tiene un «alto rango dinámico», pero solo cuando percibimos un contraste alto entre dos puntos, es cuando «notamos» ese punch extra.
Nuestra vista es adaptativa, pero tiene límites. Estos están bien definidos y son conocidos. No podemos «exponer» a la vez el detalle en sombra de un objeto mientras tenemos una luminosidad fuerte al otro lado. O nos enfocamos en uno, u en otro. El HDR viene a ser un poco lo mismo, pero algo más limitado.
¿Qué sucede cuando alguien os enfoca con una linterna a los ojos?. Nos molesta, ¿verdad?. ¿Qué hacen nuestras pupilas?. Se contraen. Dejamos de ver «detalle en sombra» que se convertirá en negro absoluto para intentar «ver» esa luz tan intensa que nos enfoca.
Existen una serie de reglas «no escritas» en lenguaje audiovisual para minimizar este problema físico, y el HDR mal aplicado, puede agravarlo. En este sentido, los coloristas tienen una responsabilidad y aunque juegan creativamente con el uso del «deslumbramiento» para generar confusión, un mal uso o abuso de él, provoca incomodidad.
Al final, el director de fotografía y el colorista definen los términos y límites que quieren dar a su película, y los espectadores son cautivos de ella.
Y sin embargo, éstos tienen libertad absoluta. Lo cual puede llegar a ser un problema si se entiende de forma errónea.
El usuario final
El usuario final, que es finalmente quien ve las imágenes creadas por los profesionales y visualizadas por los televisores fabricados por las marcas, también tiene un poder de decisión. Este poder puede ser usado de forma que el resultado final depende al 100% de él.
En este caso nos encontramos con tres grupos perfectamente diferenciados.
- Por un lado, tenemos al usuario tipo (que es el más mayoritario) que elige televisor porque «le entra por los ojos» en el centro comercial de turno o porque «alguien» le dijo que comprase éste. Una vez puesto en marcha, elige un modo de imagen que más le gusta y toquetea un poco aquí y allá. Y ya está.
Es la posición más cómoda, y probablemente más alejada de la intención original. En muchos casos el modo más atractivo suele ser el más «cantoso», léase Vivos, dinámico, fútbol y asi. Alguna vez puede decantarse por modos más normales y si elige «cine» ya al menos se acercará bastante al ideal. - Por el otro, tenemos a un usuario más formado y versado, suele usar Internet para informarse de las diferentes opciones y tiene cierto criterio aunque algunos términos se le escapan. Tiene normalmente la actitud de buscar una imagen correcta y no duda en buscar guías de ajuste o recomendaciones. Aunque suele explorar otras opciones, generalmente este tipo de usuario se acercará bastante al ideal.
Aunque no es el más numeroso, cada vez hay más usuarios con este perfil, que sería considerado el ideal. - En último lugar, tenemos a usuarios avanzados que buscan la máxima excelencia en sonido e imagen. Se gastan mucho dinero, y son tremendamente exigentes. Con conocimientos muy profundos sobre la imagen, sacan el máximo partido posible a su sistema audiovisual, usando todo un arsenal de dispositivos, que incluyen sondas, mediciones, test de tortura, etc…
Este tipo de usuario suele ser el más «problemático» para los fabricantes, pues su alto nivel de exigencia hace que devuelvan dispositivos hasta que alguno colme sus altas expectativas.
Está muy bien ser exigente, pero más que los profesionales y los fabricantes, indican un problema bastante complicado con este minoritario sector (afortunadamente).
Incluso en el grupo más exigente, muchos usuarios no tienen los conocimientos suficientes para valorar determinadas decisiones o mediciones. Esto es así porque en el mundo profesional se usan herramientas que validan el trabajo y marcan claramente la dirección que deben tomar. El resultado final no es algo caprichoso y arbitrario, está medido y calculado.
En el mundo SDR las cosas son fáciles y no tienen demasiado misterio, pero el mundo HDR es cambiante y tal como vimos en la primera parte, un televisor de hace cuatro años no gestionará de igual forma una señal HDR que escape fuera de su rango de visualización que uno más actual.
Hay que ser consecuente y consciente de este hecho y tener la mente lo suficientemente abierta para aceptar que esto es así hasta que al menos en un futuro los televisores ofrezcan los 10.000 nits y se elimine el concepto «Tone Mapping», porque visualizarán el HDR de forma completa y sin limitaciones.
Mientras tanto, fabricantes, profesionales y usuarios tenemos que convivir con un mundo cambiante y que cada vez ofrece más calidad de imagen y mejores herramientas.
¿Qué nos depara al futuro más cercano?. Lo descubriremos en la PARTE III, ¡echemos un vistazo!