Las pantallas, como cualquier otro componente que encontramos en nuestros dispositivos, están en constante desarrollo. Ya lo hemos visto con el avance de la tecnología LCD y OLED y la resolución que ya llega incluso a UHD/4K (2160p), pero nos guste o no es el momento de hablar de una nueva tecnología en las pantallas de los móviles: el HDR. Ha llegado con el Note 7, pero esto es solamente el comienzo.
El próximo paso hacia adelante en la calidad de imagen de las pantallas de los móviles ya no se centra en añadir más pixeles (resolución), sino en mejorar la calidad de cada pixel. Eso es precisamente a lo que aspira el HDR, el cual tenemos que comenzar diciendo que no tiene mucho que ver con el HDR que conocemos de fotografía.
Pero, para hacer honor a la verdad, tenemos que decir que el HDR de las pantallas sí que comparte algún que otro detalle con el HDR de las cámaras. En fotografía, una foto tomada de este modo superpone dos fotos de diferente exposición para mostrar las zonas oscuras y zonas claras en buena calidad. Sino, al enfocar a algo claro con una zona oscura detrás, la zona oscura saldrá más oscura de lo que es en la realidad (y al revés). El HDR de una pantalla no utiliza esta misma técnica, pero el resultado puede ser parecido.
¿Qué es HDR? ¿Es realmente una mejora?
HDR son las siglas de High Dynamic Range, Alto rango dinámico en inglés, y hace referencia al rango de colores que podemos ver en una pantalla. Este rango de colores es más amplio en este tipo de pantallas, queriendo decir que podemos ver colores más vivos y, por tanto, reproducir imágenes con una calidad mejor de la que se ve en la realidad.
Y no solo los colores son lo importante de las pantallas con HDR; también influye el contraste. Éste viene directamente relacionado con el brillo que puede alcanzar, ofreciendo unos blancos muy brillantes y unos negros muy oscuros. Gracias a estas mejoras, con el contraste con colores más vivos de por medio, las pantallas HDR son capaces de mostrar imágenes mucho más reales.
¿Y qué necesita una pantalla para ser HDR?
Un alto contraste
Una pantalla HDR debe ser capaz de cambiar el brillo (para conseguir contraste) por zonas, por lo que partimos de la base de que por razones técnicas debe ser una pantalla LED, ya sea LED LCD u OLED. El primer tipo (LED) puede variar el contraste, pero lo hace sin conseguir apagar del todo los píxeles; el segundo (LED LCD), en cambio, lo hace apagando además cada pixel.
Para que no se empiece a llamar HDR a cualquier pantalla se han establecido unos valores de brillo (medido en nits) para definir si entran o no en esta calificación. Deben ser capaces de conseguir más de 1.000 nits de brillo máximo y 0.05 nits o menos de brillo mínimo o, pensado más para las OLED, más de 540 nits de brillo máximo y 0.0005 nits o menos de brillo mínimo.
Cumpliendo cualquiera de las dos condiciones se consigue un televisor de alto contraste, pero con la primera condición se logra un panel más brillante y con la segunda uno más oscuro.
Gran cantidad de colores
Esto es por parte del brillo, pero ¿y para conseguir un mayor rango de colores? Para ello la pantalla tiene que poder interpretar una señal de colores de 10 bits comparada con la de 8 bits que se usa en una pantalla HDTV.
Con una señal de 8 bits se pueden conseguir 256 tonalidades de un mismo color, algo suficiente normalmente pero deja muchos «escalones» si vemos todas las tonalidades de un color puestas en orden desde la más clara (casi blanco) a la más oscura (casi negro).
256 tonalidades hacen posible interpretar 256 rojos x 256 verdes x 256 azules = 16,7 millones de colores, en cambio una señal de 10 bits interpreta 1024 tonalidades, dando 1.070 millones de colores. ¡Ojo! Hablamos de interpretar, no de reproducir.
Interpretar es que a partir del archivo, la pantalla sepa que color va en cada sitio. En cuanto a reproducir colores las pantallas HDR deben hacer uso de esta señal de 10-bits para conseguir al menos el 90% de la gama DCI-P3 (véase imagen encima de estos párrafos), en la que se enfoca la industria del cine. ¿Por qué no una gama más alta que sería mejor? Porque la tecnología actual no es capaz de reproducirla.
Tengo la pantalla, ¿todo es HDR?
Quieto parado… La pantalla puede ser HDR, pero si las películas, vídeos, fotos, etc… que ves en ella no han sido creadas en HDR no tendrá ningún efecto esta tecnología. Es a fin de cuentas como si en una pantalla 4K muestras un vídeo a 720p. No, no se verá mejor.
Al igual que cuando llegó el 4K, toca esperar a que esta tecnología se expanda a cada vez más televisores de distintas gamas económicas y sobretodo que se expanda entre los creadores de contenido.
En cambio ahora los poseedores de pantallas HDR pueden disfrutar ya de contenido HDR de calidad gracias a Amazon Video o Sony Pictures que permiten ver algunas de sus series y películas en HDR. Además, en una pantalla HDR podrás ver contenido Dolby Vision, creado para cine.
¿Algo imposible en móviles?
Pues para nada. El recién presentado Samsung Galaxy Note 7 dispone de una pantalla HDR Ready así que puede reproducir el contenido HDR. Esta mejora en el procesamiento de imágenes lo han conseguido gracias a un nuevo chip llamado mDNIe que se encarga de ello.
Además, entra dentro de los requisitos de brillo puesto el Galaxy Note 7 dispone de una pantalla que puede llegar a emitir 1.048 nits cuando la mayoría de sus pixeles están encendidos, como han visto al analizar su pantalla en DisplayMate (lo normal suele estar cerca de los 400 nits). Ser una AMOLED permite lograr negros puros de 0 nits y esos colores vivos por ser una Super AMOLED que ya hemos visto en otros dispositivos de Samsung hace que pueda cubrir los requisitos en cuanto a gama de colores.
Y en lo que a contenido respecta, Samsung también ha anunciado un acuerdo con Amazon Prime Vídeo para disfrutar de contenido HDR en el Note 7. Con este movimiento, Samsung consigue tener el primer teléfono con pantalla lista para HDR pero… ¿cuánto tardaremos en ver cómo se expande la tecnología del HDR en las pantallas de los móviles? ¿O pensáis que no terminará de despegar y quedará en el olvido?