Connect with us

Análisis y artículos

La gran evolución del HDR (I)

Publicado

el

En 2016 escribí un artículo llamado «La gran explosión del HDR«, donde sentaba las bases sobre lo que estaba por llegar de forma inminente al público generalista, consumidor de contenidos y sobre todo al que busca la máxima calidad de imagen.

Recomiendo leerlo previamente si alguien viene nuevo a este mundo del HDR para entender de donde venimos y hacia donde vamos, ya que no quiero repetir conceptos allí tratados.

Cuatro años después, el HDR cada vez es más conocido, hay muchísimos más contenidos y han cambiado un poco las cosas desde aquellos primeros televisores.

También nos enfrentamos a una serie de cambios constantes que hacen que cosas tomadas como certeras antes, hoy no lo son tanto. Y por supuesto, debates acalorados en Internet (fuera de él no lo son tanto) sobre una cuestión que requiere un poco de análisis y cierto conocimiento.

¿Empezamos?.

La evolución de los Displays

Lo de «display» suena un poco raruno, pero es que aquí englobo cualquier pantalla, sea un televisor, un monitor de ordenador, o de masterizado, o un proyector

En estos cuatro años se ha avanzado bastante en el tratamiento de la imagen HDR, en la representación de los colores (mayor cobertura del espacio de color Rec.2020), se ha introducido HDMI 2.1 el cual está relacionado en parte con el HDR por lo que aporta y en la disponibilidad de contenidos. También los móviles y las cámaras son capaces de grabar en HDR, lo que significa que la gran masa de público es cada vez más consciente y accesible.

Por contra, seguimos sin tener monitores HDR decentes (los que hay son muy caros y no dan mejor experiencia que un televisor más barato y más competente), seguimos sin llegar a una tasa de nits alta (que ha introducido un nuevo debate «artificioso»), y el HDR sigue siendo «ese gran desconocido», en algunos aspectos.

Así con todo, el balance es positivo y da cuenta de la importancia cada vez mayor del HDR, que va sumando adeptos y sobre todo evolucionando y mejorando, aunque eso signifique tener que ir modulando también nuestra propia experiencia, pues afirmaciones de hace cuatro años hoy día no son tan certeras, y tampoco pasa nada. La vida es evolución 🙂

Televisores

Vamos a empezar este camino con probablemente lo que más ha evolucionado, los televisores.

Publicidad

En 2016, el panorama en cuanto a HDR sobre todo era dominado por el segmento «Premium». Encontrar un televisor con un HDR decente, era ir a gamas altas y por consiguiente, precios inaccesibles para la gran parte del público.

Esto obviamente era una limitación para que el HDR llegue al mayor número de gente posible. Afortunadamente, cuatro años después, en 2020, nos encontramos con televisores a menos de 1000€ con un HDR muy bueno, sino excelente.

El HDR también ha llegado a las gamas bajas y medias, pero NO es recomendable, aunque el precio sea tentador, un televisor de 400€ no tiene un buen HDR, y de hecho puede causar un aspecto más negativo que positivo, por lo poco que aporta.

Pero lo realmente interesante ha llegado por parte de la GESTIÓN de esa señal HDR.

Previamente a los modelos de 2019 (a falta de que lleguen los de 2020), el manejo de la metadata daba como resultado varios escenarios, cuando los nits contenidos en el archivo superaban el límite físico del televisor:

  1. Hacían «clipping» (recorte de las altas luces más allá del umbral)
  2. Normalizaban las altas luces bajando la intensidad global de la imagen
  3. Normalizaban altas luces y sombras, creando una imagen plana

Ninguno de estos resultados convencían del todo. Algunos televisores de 2017 y 2018 tenían algún algoritmo para minimizar alguno de los problemas, pero los resultados no eran del todo satisfactorios o no eran bien entendidos.

Hay que decir, también es cierto, que estos escenarios eran en un porcentaje ínfimo de la imagen y en momentos puntuales, ¡que nadie piense que era en TODA la película o gran parte de ella!.

Para liar aún más las cosas, cada marca adopta un tipo diferente de acercamiento a ese HDR que debería ser común para todos…pero no lo es.

Sin embargo los modelos de 2019 nos trajeron en la mayoría de modelos el «Dynamic Tone Mapping«, que en el caso de HDR10, ignora la metadata que indica cómo debe comportarse el display, y genera unos al vuelo, analizando la imagen en tiempo real, haciendo así que se vea dentro de las capacidades máximas del panel.

El resultado visual, es que nits mayores que el que soporta el display se ven con detalle, y la imagen por debajo de ellos no se ve afectada, normalizando la imagen sin generar «estridencias»:

Publicidad

Obviamente, no todos los televisores tienen esta función «Dynamic Tone Mapping«, así que no está de más el sondear el mercado y elegir un televisor que la tenga. Mi consejo personal es elegir OLED, ya que es ir a lo seguro, pero…»you choose«.

Recordemos que HDR10 es la BASE para el resto de «sabores», así, tenemos en liza ahora mismo TRES opciones disponibles: HDR10, Dolby Vision y HDR10+.

Muchos televisores de 2019 ya soportan los tres formatos, exceptuando los archienemigos LG y Samsung que ninguno de los dos soporta el formato «prioritario» de ellos mismos (DV en LG, HDR10+ en Samsung). Una posición absurda cuanto menos, que segrega al usuario obligándolo a prescindir de uno de los dos HDR si elige una u otra marca. Esperemos que más pronto que tarde esto acabe normalizado.

En cualquier caso, la gran mayor parte de contenidos se masterizan en HDR10, picando a 1000 nits como norma.

El tema de los NITS es algo que requiere su espacio, que será tratado en la siguiente parte, ya que es complejo y largo de explicar.

Monitores

Aquí probablemente nos encontremos con la gran decepción. Cuatro años y prácticamente no tenemos nada que se considere como decente.

El único avance significativo ha venido por parte de VESA, al catalogar el HDR dentro de varios segmentos, para que así al elegir monitor con HDR, al menos se tenga una referencia. Un poco al estilo de la UHD Alliance, aquí una tabla con las diferentes posibilidades a fecha de Enero 2020:

La cuestión es que los monitores más interesantes, que son VESAHDR600 y superiores y los nuevos denominados TrueBlack (OLED), son carísimos e incluso dentro de los denominados HDR600 encontramos deficiencias y un HDR poco digno.

También nos encontramos que si uno desea editar vídeo en HDR, tenemos que usar soluciones externas porque estos monitores no son reconocidos como para editar bajo esa normativa. Todo un poco verde…

Proyectores

Si los monitores están verdes, el tema proyección ya es para tenerlo aparte. Sí, es cierto que desde hace unos años existen proyectores HDR, pero están lejos de ofrecer el «punch» de los televisores más avanzados.

Publicidad

Solo proyectores de muy alta gama y muy caros ofrecen un grado de satisfacción óptimo usando algoritmos avanzados. Hay que entender que el HDR en proyección es un asunto más complicado, pues para ofrecer unos nits aceptables (108 nits es la norma Dolby Vision en proyección), que en televisores sería un valor muy bajo, en proyección es algo utra luminoso, por la reflexión de la luz y el tamaño de la pantalla).

En estos casos la mayor parte de usuarios acaba usando MadVR, convirtiendo a SDR vía Tone Mapping, ofreciendo unos resultados muy decentes, pero a costa de aprender el uso de una herramienta que ofrece numerosas posibilidades y que llega a abrumar.

Eso no quiere decir que una persona corriente se compre un proyector con HDR y goze con las imágenes, pero que para sacarles el máximo partido y provecho, el camino no es fácil ni barato…

Monitores profesionales y DCinema

En el segmento profesional, las cosas son más conservadoras. Normal, teniendo en cuenta que son los responsables de la imagen que vemos en nuestros dispositivos, no se pueden tomar decisiones «a lo loco».

Así, la norma autoimpuesta generalizada, es de realizar el «grading» o el «masterizado» teniendo siempre como tope los 1000 nits, que es digamos el primer «puerto seguro» hasta llegar al máximo del formato.

Así, Netflix por ejemplo realiza todos sus masterizados en Dolby Vision usando ese tope, aunque las compañías que lo realizan tengan adquirido el famoso monitor de masterizado «Dolby Pulsar» que llega hasta 4000 nits.

Pero el monitor Dolby Pulsar ni siquiera es fabricado en masa, es más un display «experimental», cuesta muchísimo dinero y genera un calor infernal debido a los nits que tiene que mostrar.

Así, normalmente en la industria se solía usar el monitor Sony BVM-X300, pero éste va a ser reemplazado próximamente por la solución de Panasonic que utiliza la tecnología «Dual LCD«, que consiste en usar dos paneles LCD, uno para el color habitual, y uno secundario que es el responsable de la luminosidad, como se puede ver en la siguiente infografía:

Esta solución además se está adaptando para televisores normales próximamente. Digamos que está a caballo entre el LCD más puntero, y el OLED, ofreciendo un ratio de contraste de 1.000.000:1 (absolutamente brutal sin llegar a las tasas «infinitas» de OLED), control de luminosidad a nivel de «pixel» (no subpixel), y 1000 nits, aunque ir más allá es complicado bajo esta nueva tecnología.

Esta es una tabla de los principales monitores de masterizado que se suelen usar, y sus características:

Publicidad

El siguiente paso es MicroLED, pero eso lo abordaremos en la parte III de esta serie de artículos, dedicada al futuro, junto con otras tecnologías como ésta.

Si saltamos al mundo de la proyección en Cine Digital, pues la cosa está tan verde como en proyección Home Cinema, aunque va avanzando.

No existe una norma oficial de la DCI, pues están con las primeras pruebas al respecto para definir como deben ser los proyectores y pantallas, pero eso no significa que otros estén trabajando en soluciones propietarias.

La más avanzada a ese respecto se llama EclairColor, y en España al menos solo una pantalla puede representar los DCPs especialmente masterizados en ese modo de imagen, que no es otra que la sala Onyx de Odeon Sambil (pronto también en Sevilla y Valencia).

Pero claro, Onyx es una tecnología LCD autoemisiva (similar a OLED), no proyección tradicional. A ese respecto, para poder ofrecer los 108 nits mínimos que propone Dolby Vision, es necesario el uso de Proyectores Laser de alta eficiencia, y eso no es fácil.

Y dado que el masterizado HDR para DCinema está casi por nacer, toda la industria se vuelca actualmente al mercado doméstico, que es «donde está la chicha».

Seguimos en la PARTE II

(Visited 1.650 times, 1 visits today)