Logo Computerhoy.com

HDR en la pantalla frente al HDR en la cámara: qué es cada uno y qué diferencias hay

HDR
HDR es una de esas siglas que parecen surgir de la nada y que de repente todos los fabricantes quieren añadir a sus productos. Todo debe ser HDR. Sin embargo, no es lo mismo el HDR en las pantallas, que en las cámaras. Aquí te contamos qué es cada uno y qué diferencias hay.

¿Por qué ese interés repentino de todos los fabricantes y marcas por esta tecnología que en realidad se viene utilizando desde 1850 en fotografía? El motivo no es otro que ofrecer una experiencia visual más natural y relista de las imágenes que vemos en las pantallas de televisores, monitores, smartphones o tabletas.

HDR son las siglas en inglés de High Dynamic Range o imágenes de Alto Rango Dinámico que viene a revolucionar la forma en la que se mostraban los colores en pantalla, para hacerlo mucho más realistas e impactantes.

¿Qué significa esto de Alto Rango Dinámico? El rango dinámico de una imagen es la capacidad para mostrar o capturar tonos de color entre el tono más oscuro y el más iluminado de una imagen.

Cuanto mayor rango dinámico tenga una imagen (fotografía o vídeo), mayor cantidad de matices de color intermedios tendrá, creando transiciones más suaves y descubriendo detalles que en una imagen de bajo rango dinámico quedarían empastados en una masa oscura o demasiado clara.

Realidad en HDR

Si has visto alguna vez contenido en HDR habrás notado que se aprecia una gran diferencia entre ver una imagen en HDR o verla con un bajo rango dinámico. Podríamos decir que te sientes más atraído y encuentras más cómodo viendo las imágenes en HDR. No es casualidad.

La razón de esa atracción hacia el HDR es que tú estás viendo en HDR todo el tiempo, por lo que al ver imágenes en HDR tu cerebro las interpreta de una forma más natural y realista.

Netflix en HDR en Windows 10: esto es lo que necesitas

El ojo humano es un elemento óptico de altísima precisión que, en milésimas de segundo, es capaz de variar la apertura de la pupila para captar los diferentes matices de luz de una escena. Después, toda esa información se envía al cerebro que la interpreta y superpone haciendo que seas capaz de percibir un gran rango de matices de luminancias.

Por ese motivo, por ejemplo, eres capaz de ver detalles y matices en las zonas de sombra en un paisaje a pleno sol que, cuando tomas una foto del mismo lugar, tu cámara no es capaz de representar y muestra zonas demasiado oscuras o demasiado iluminadas.

HDR

El HDR en fotografía viene a reducir la diferencia entre la riqueza de tonos que ves con tus propios ojos, y lo que es capaz de captar un dispositivo de imagen como una cámara de fotos o de vídeo, haciendo el resultado más natural para tu cerebro.

HDR en fotografía

El uso del HDR en fotografía se remonta a 1850, cuando el fotógrafo Gustave LeGray empezó a combinar negativos con diferentes exposiciones en sus fotografías de paisaje. Al fotografiar paisajes marinos, Gustave LeGray se encontraba con un problema que seguramente tú también te has encontrado en más de una ocasión.

Al intentar hacer fotografías en las que apareciese el mar y el cielo, cuando intentaba exponer correctamente el cielo, el mar se quedaba oscuro y si exponía bien el mar, el cielo le quedaba demasiado blanco y plano.

HDR

De modo que Gustave LeGray decidió hacer dos fotos de la misma escena. Una exponiendo el cielo y la otra exponiendo correctamente el mar. Después combinaría ambos negativos para obtener un solo positivo. De ese modo obtuvo una foto en la que ambos elementos estaban correctamente expuestos, tal y como él los estaba viendo en realidad y, de paso, creó las primeras imágenes en HDR.

¿Cómo se hace una foto en HDR?

En realidad, ninguna cámara es capaz de crear directamente una foto en HDR. Al igual que sucede en las personas, el proceso de creación del HDR no se produce en el ojo—que en este caso sería el equivalente de la cámara—, sino que se lleva a cabo en el cerebro. Es decir, en postprocesado.

Para crear una fotografía en HDR con tu cámara, necesitas tomar al menos tres tomas de la misma escena. Pongamos un ejemplo que seguro te has encontrado en muchas ocasiones. Te encuentras frente a una ventana desde la que se ve un precioso paisaje. Un contraluz de manual.

HDR

Si haces una foto, la cámara te permitirá exponer correctamente el interior de la estancia, pero la ventana quedará como un rectángulo blanco por la diferencia de luz. Si configuras la exposición de la foto para que capte lo que se ve a través de la ventana, todo el interior se verá como una mancha negra en torno a la ventana. Para nada coincide con lo que tú realmente estás viendo en ese momento, ya que eres capaz de ver detalles del interior y del exterior.

Todas las PlayStation 4 reciben HDR y nuevas características

Para conseguir una foto en HDR que se acerque a lo que tú estás viendo, necesitas hacer una foto con la exposición correcta, en la que se captarán los tonos de luz intermedios y los detalles generales de la escena, pero aparecen zonas oscuras y zonas con mucha luz; la misma foto con un paso de exposición menos, que quedará más oscura (subexpuesta) pero permite descubrir detalles en las zonas más iluminadas de la escena; y una con un paso de exposición mayor, quedando más clara (sobreexpuesta) para levantar las zonas más oscuras mostrando más información.

HDR

Después, bien en la propia cámara o en programas especializados de edición fotográfica, se combinan esas tres (o más) tomas creando una sola imagen en la que se muestran los detalles de las zonas oscuras, de los medios tonos y de las zonas más claras. Es decir, tal y como tú veías realmente la escena.

HDR en los smartphones

El caso de los HDR en los smartphones es ciertamente curioso ya que desde hace al menos un par de años, es posible hacer fotos en HDR con el móvil. Sin embargo, las pantallas de la mayoría de los smartphones no disponen de la suficiente calidad como para mostrar todos los matices que aporta el HDR a las imágenes.

Ya puedes reproducir vídeos de YouTube en HDR en iPhone Xs y Xs Max

Si bien es cierto que en lo que respecta a HDR en fotografía no importa demasiado la pantalla en la que se vea la imagen –partiendo de una base mínima de calidad, claro—ya que lo que se muestra es el resultado del procesado de la imagen, en el HDR en vídeo la pantalla utilizada sí es determinante.

HDR en vídeo, imágenes más realistas en tu TV

Si te mantienes mínimamente informado sobre las novedades en televisores, monitores, smartphones o proyectores, te habrás dado cuenta de que el HDR es una constante que se publicita en letras brillantes en todos los catálogos.

Y no es para menos, podríamos decir sin temor a equivocarnos que el HDR es la mayor revolución reciente tras el 4K. Proporciona una experiencia visual más cercana a lo que nuestro cerebro procesa, por lo que siempre nos parecerá más natural y realistas las imágenes procesadas en HDR.

HDR

Sin embargo, cuando hablamos de HDR en vídeo todo el proceso es algo más complicado de lo que hemos visto en fotografía, ya que de poco sirve crear contenidos en HDR que las pantallas no son capaces de reproducir.

¿Cómo se crea un contenido de vídeo en HDR?

Para crear HDR en vídeo se utiliza el mismo principio básico que ya te hemos mostrado en el apartado del HDR en fotografía.

Sin embargo, a diferencia de lo que sucede en el HDR para fotografía, donde la imagen HDR resultante ya ha sido procesada, en vídeo debería aplicarse ese mismo procesado con imágenes subexpuestas y sobreexpuestas a todos y cada uno de los fotogramas del vídeo. Una tarea titánica sin duda alguna.

HDR

Para agilizar el proceso, el contenido se rueda conservando la información de la luz en formatos de gama log, un tipo de imagen RAW para vídeo en el que se almacena únicamente la información de la exposición tal y como la capta el sensor (no la información de los colores como sucede en el formato RAW de imagen tradicional).

Al igual que sucede en los archivos RAW en fotografía, estos formatos de gama log conservan todos los valores de información de la exposición captados por el sensor, lo cual permite ajustarla en postproducción para crear tres (o más) versiones diferentes de cada fotograma sin tener que rodarlo por triplicado.

Formato RAW en móviles, ¿qué es y por qué usarlo en tus fotos?

Una vez ajustada la exposición que tendrá cada píxel de la escena, debe codificarse esa información utilizando alguno de los diferentes estándares HDR que existen: Dolby Vision, HDR 10, HDR by Technicolor o HLG. En la mayoría de ocasiones, este proceso se realiza de forma automática en un sistema de procesado específico para cada tipo de HDR.

La codificación con uno de estos estándares HDR genera una banda de metadatos paralela a la de las imágenes. Estos metadatos contienen toda la información sobre el brillo y contraste que debe mostrar cada píxel de la pantalla en cada momento del vídeo. Es algo así como una guía para las pantallas sobre cómo tienen que reproducir el contenido.

HDR

Tras esta codificación, el contenido rodado ya está listo para ser consumido por los usuarios, que podrán decidir si ve el contenido en HDR usando las indicaciones alojadas en los metadatos integrados al contenido o no.

¿Qué aporta el vídeo HDR a los nuevos contenidos?

El HDR en vídeo es sinónimo de precisión. Precisión a la hora de crear entornos de luz más ricos en matices de color, en brillo y en profundidad, pero también es precisión a la hora de mostrar los ajustes de luz y color de cada escena que ha establecido el creador de la película o serie.

Estos son los tipos de HDR incluidos en los LG OLED de 2018

La iluminación o el tratamiento del color es una herramienta artística más como la banda sonora o el tipo de planos que se utilizan en la puesta en escena. En ese sentido, el HDR elimina de un plumazo la interpretación del color que hacían los distintos dispositivos en los que se representaban.

Con el HDR, y en igualdad de condiciones, una determinada película grabada y procesada en el mismo formato HDR se verá exactamente con los mismos valores en un televisor de Sony, de Samsung, LG o cualquier otra marca ya que es el creador quien establece que cada píxel tiene que mostrar unos determinados valores. Ni más saturado o brillante, ni menos.

Mejores ofertas en TV 4K HDR

La pantalla se limita a ejecutar las ordenes que se indican en los metadatos del HDR, y no interpreta los colores como sí hace con el contenido no HDR, donde cada modelo procesa los valores de la imagen de forma diferente. Por lo tanto, cuando ves una película en HDR, en realidad estás viendo exactamente lo que el director de la película quiso que vieras.

Algunas marcas integran conversores de HDR en sus televisores o pantallas con los que procesan contenidos sin HDR, para potenciar el rango dinámico de las imágenes de forma artificial. Sin embargo, sus resultados no son equiparables a la calidad del HDR nativo.

Qué necesitas para ver contenido en HDR

Cada estándar HDR utiliza un “idioma” diferente para escribir sus metadatos, por lo que la pantalla debe ser específicamente compatible con el formato HDR en el que se ha codificado el contenido o, de lo contrario, no “hablará” el mismo idioma que el contenido y no será capaz de interpretar la información de los metadatos para mostrar el contenido en HDR.

Las 5 mejores Smart TV de 2017: HDR, 4K y UHD

Es decir, aunque tu televisor sea compatible con el estándar HDR 10, no podrás ver contenido codificado con el estándar HDR Dolby Vision o cualquier otro. Solo verás correctamente el formato HDR 10, que es el “idioma” de metadatos que entiende tu televisor.

Ser compatible con uno u otro formato de HDR no solo depende del pago de una licencia o poner una etiqueta en la caja del producto. El panel del televisor, del monitor o del smartphone debe ser capaz de mostrar una determinada cantidad de brillo y profundidad de color. Algo para lo que no todas las pantallas están preparadas.

Mejores ofertas en TV 4K HDR

Cada estándar tiene unos requerimientos diferentes. Por ejemplo, para el estándar HDR 10 que es un formato abierto, se requiere un panel capaz de mostrar una profundidad de color de 10 bits en los que se pueden mostrar 1.024 matices diferentes por cada color y un brillo de unos 1.000 nits. Por poner un poco de contexto a esta cifra, la pantalla de los mejores móviles del momento sin soporte para HDR ofrece un brillo de unos 450 nits y 256 matices de cada color.

Otros formatos de HDR como el Dolby Visión son mucho más exigentes con los paneles. Este estándar requiere pantallas capaces de ofrecer una profundidad de color de 12 bits una luminosidad de 10.000 nits.

Dado que los estándares de HDR no son compatibles entre sí, tu televisor, monitor, smartphone o proyector debería ser compatible con el mayor número de formatos HDR posible. Así te aseguras de poder ver el contenido en HDR sea cual sea el formato de codificación que ha elegido el creador del contenido.

¿Y si mi pantalla no es HDR?

Si tu pantalla no es compatible con el estándar HDR que ha elegido el creador, simplemente no podrá leer los metadatos del HDR, por lo que será la propia pantalla la que decida la forma de representar las imágenes en pantalla.

Youtube ahora transmite vídeos en HDR

Básicamente es lo mismo que hace con cualquier contenido no HDR, donde es el procesador de imagen del televisor o dispositivo quien elige los valores de contraste, brillo o intensidad de las imágenes, perdiendo toda la precisión y riqueza de color que ofrece el contenido HDR.

Intentar ver un contenido HDR en una pantalla no compatible es como ver un contenido no HDR en cualquier pantalla. Simplemente no es HDR.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Computerhoy.