Nos están engañando con el HDR cuando compramos una tele o monitor

Televisión

Actualmente, cuando compramos un televisor, un monitor, o un móvil, muchos fabricantes le están poniendo la etiqueta de HDR, o le incluyen un modo HDR a pesar de que no lo tienen real o nativo. Por ello, vamos a ver en qué tenemos que fijarnos para que la pantalla que compremos tenga HDR real.

HDR, o High Dynamic Range, es como se ha llamado a la posibilidad de mostrar muchos más colores que hasta ahora. Una imagen SDR cuenta con 8 bits de profundidad de color, lo que equivale a 28 por subpíxel rojo, verde y azul. En total, tenemos que un píxel puede mostrar 16,77 millones de colores distintos. Con los paneles de 10 bits, esa cifra pasa a ser de 210, que equivale a 1.024 tonos distintos por subpíxel, o 1.073 millones de colores por cada píxel.

Estos paneles son mucho más precisos, y con las nuevas tecnologías, tienen una mayor luminosidad, pudiendo tener más tonos de negro y de blanco y ofreciendo imágenes más realistas. Para hacer eso es necesario tener local dimming para apagar las zonas más oscuras, ya que si se dispara el brillo en algunas zonas, los negros se ven con tonos grises. Sin embargo, hay muchos monitores y televisores que no tienen paneles de 10 bits, pero sí tienen algún modo o etiqueta de HDR.

Monitores: muchos ponen que tienen HDR pero en realidad no lo tienen

La mayoría de monitores del mercado de menos de 500 euros no llegan a los 400 cd/m2 de luminosidad, lo cual les impide cumplir con lo que pide el estándar DisplayHDR 400 para obtener la certificación. Por encima de esos precios, muchos monitores lo cumplen, pero siguen sin ofrecer HDR real.

VESA actualizó el estándar DisplayHDR a la versión 1.1 en septiembre de 2019, obligando a que haya un dimming activo, a tener un mínimo de precisión de color, modos obligatorios en el menú que indiquen cuando el HDR está activo, etc. Además, añadieron una nueva categoría que se suma a DisplayHDR 400, 600 y 1000: la de 1400. Esta nueva categoría debe garantizar entre el 90 y el 95% de DCI-P3, además de guantar 900 nits de brillo en toda la pantalla durante periodos de larga duración (30 minutos). Los criterios ahora quedan de la siguiente manera:

Para activar la opción de HDR (llamado también WCG de Wide Color Gamut) en Windows 10 es necesario tener un monitor que realmente soporte la reproducción de contenido HDR10 a través de DisplayPort 1.4 o HDMI 2.0, además de una tarjeta gráfica compatible con PlayReady 3.0 y descodificación de contenido HEVC y los drivers WDDM 2.4 instalados. DisplayHDR 400 soporta HDR10, pero eso no indica que el monitor pueda mostrarlo, aunque sí reproducirlo.

Algunos monitores directamente están poniendo que tienen un “modo HDR”, que lo único que hace es disparar el contraste y la gamma para conseguir un de imágenes mucho más saturadas pero con peor calidad, y por supuesto sin acercarse ni un ápice al HDR real. Por ello, si vais a comprar un monitor para PC y queréis activar la función de HDR en Windows, aseguraos de que tenga la etiqueta de DisplayHDR; a ser posible superior a 600.

Con los televisores pasa lo mismo

Para que un televisor reproduzca contenido en HDR es necesario que sea compatible con él de manera nativa. Es decir, que tenga un panel de 10 bits, ya sean 10 bits reales o de 8 bits que utilice FRC (Frame rate control), que permite emular esos 10 bits mediante la introducción de distintas tonalidades de colores en cada fotograma.

Sin embargo, no es lo mismo reproducirlo que mostrarlo, ya que para mostrarlo adecuadamente es necesario tener ese panel de 10 bits nativo, así como el local dimming que hemos mencionado antes para tener esa atenuación local que apague zonas de la pantalla. Un televisor que tiene un “modo HDR” pero no tiene local dimming utiliza el Edge LED para iluminarse, de tal manera que no puede apagar zonas del panel, y por ello si hay una zona muy blanca y se sube el brillo, la parte más oscura en lugar de negro mostrará gris. Hay algunos televisores Edge LED que sí muestran contenido HDR real, pero con un rendimiento peor que si tuvieran local dimming, como tienen por ejemplo las QLED de Samsung con el Quantum Dot.

Con los televisores OLED esto no ocurre, ya que como cada píxel tiene iluminación independiente; un local dimming llevado a la máximo expresión que hace que estos paneles tengan un contraste infinito. Por ello, todos los televisores OLED que veáis van a tener HDR real siempre y cuando esos píxeles tengan 10 bits de profundidad de color, lo cual tienen todos los modelos actuales del mercado porque las OLED están centradas en la gama alta actualmente.

Este es el problema de que televisores 4K de 400 y 500 euros tengan la etiqueta de HDR, ya que los modos que incluyen hacen que incluso el contenido se vea con peor calidad, y desaliente a muchos usuarios a comprar televisores compatibles con esta tecnología porque en sus pantallas las estén viendo peor.

Como ya hemos hecho en algunos artículos previos, la recomendación que hacemos es que comprobéis las especificaciones del televisor que queréis comprar en displayspecifications.com, donde tenéis que mirar dos cosas: que el televisor tenga Local Dimming, o Full-Array Local Dimming si hablamos de un televisor con panel LCD (como las QLED), un panel de 10 bits, compatibilidad con estándares HDR como HDR10, Dolby Vision o HLG, buenas cifras de reproducción de color (95% de DCI-P3 o más, por ejemplo), y un brillo máximo lo más alto posible que supere los 600 nits. Con todo esto nos aseguraremos de tener un televisor con HDR real, y no una reproducción de ese contenido emulada.

Escrito por Alberto García

Fuente > ADSLZone

Continúa leyendo
  • Mira si nos llevan engañando que si les hubiese dado la gana podrían haber actualizado muchos firmwares de modelos antiguos (tanto televisiones como monitores), para añadir HDR por software. Alguien me dijo que podrían metérselo hasta las vetustas pantallas CRT (Tubo de Rayos Catódicos)

    Salu2

    • Joël Bonet Rodríguez

      Por poder si, pero el procesador que lleva la TV da para lo que da y no creo que ver algo en HDR a 15fps compensara la experiencia.

      • Ni que el HDR fuera una enorme carga para el procesador. El HDR no es más que hacer varias fotos que se superponen, de tal forma que el contraste se equilibra. Y sólo funciona con variaciones de contraste alto, si la variación es mínima el HDR vale para poco o nada.

        Además la técnica de superposición de dos imágenes, la modalidad más sencilla es muy antigua no es de ahora, precisamente.

        Salu2

    • Monitores de esa época te dan 14 bit o 16bit pero la gente y fanaticos de la cutre Samsung quieren confundir, a día de hoy OLED de LG paneles 12bit o más llevan.

  • Santos

    Casi ningún televisor al alcance del consumidor mortal común tiene 10Bits nativos, en hardware. La mayoría usan FRC y la diferencia entre estos es prácticamente imperceptible en la mayoría de los casos. (obviamente depende de la calidad del procesado, pero casi nunca se nota).

    Y ademas no todos los fabricantes forman parte de los diferentes grupos que hacen estándares. Por ejemplo Sony no forma parte del UHD Alliance asi que nunca van a encontrar un televisor o producto Sony con ese sello. Y lo mismo pasa con otros fabricantes. Para complicarlo mas Samsung siendo el mayor inversionista del formato HDR10+ puede definir las especificaciones casi a como quiera.

    Si quieren una experiencia completamente nativa del HDR, un monitor de referencia, que nadie obviamente puede comprar. Para que te des una idea.
    El monitor de referencia BVM-HX310 cuesta 34,445.63 USD. Sin IVA incluido.

    Así que como que estafados, ni tanto.

    • Todos los OLED y tv suelen llevar panel 10 o 12 bit, no tienes nidea de lo que hablas y solo hablas para confundir y mencionar Samsung con sus cutrepaneles quemados.

  • Zeiinsito

    Madre mía, que soltada mas desinformada de artículo.
    HDR no tiene nada que ver con los bits de color del panel, sino con el brillo máximo de este.
    La gracia es que una pantalla con más brillo es lo mismo a que hay más diferencia entre el blanco y el negro, y por ende son capaces de mostrar imágenes con mayor detalle (sobretodo si hablamos de una OLED).
    Ahora bien, el estándar de VESA, DisplayHDR, requiere de una resolución y calidad de color mínimas, a parte del própio valor de contraste de la pantalla.

    En resumen, si una pantalla de 1000 nits dice que tiene HDR, lo más probable es que lo tenga. Otra cosa ya es si cumple con el estándar de VESA, cumpliendo así también con la calidad de color, que repito, no tiene nada que ver con el HDR en sí.