Esta misma semana se presentaba de manera oficial el Google Pixel 4a, el nuevo teléfono de gama media de la firma, tras meses de rumores y especulaciones sobre su llegada al mercado. Como ocurre en los teléfonos de la marca, la cámara es el punto fuerte de este modelo, llamado a ser uno de los más destacados en este campo, pese a que de momento no llegará a España.
Una de las funciones de mayor importancia en estos Pixel 4a, además de en el Pixel 4, es Live HDR+. Google ha querido explicar ahora esta función, que permite al usuario ver cómo va a quedar la foto de manera precisa antes de que la vaya a tomar. Una función compleja, pero que la firma explica ahora con todo detalle.
Así funciona Live HDR+ de los Pixel 4a
Según ha contado Google en su blog, hasta hace no demasiado, no eran capaces de calcular el HDR en tiempo real. Esto era algo que impedía poder verlo en el visor, pero que finalmente se cambiaba con el lanzamiento del Pixel 4. Además, esta tecnología Live HDR+ se ha podido aplicar también en el nuevo Pixel 4a. Gracias a ella, se da una vista previa que permite una aproximación a la foto final que es idéntica.
El procesamiento del HDR es algo complejo, porque se capturan entre 3 y 15 fotos que tienen diferentes exposiciones. El HDR de Google usa un algoritmo que aplica una curva de tonos diferente a cada imagen, reasignando de esta forma los píxeles de cada una en la foto final. Combinan esos valores para así tener una foto que tenga el mayor rango dinámico posible. Esto permite obtener la mejor foto posible en cada momento.
Dado que el HDR+ es un proceso lento, llevarlo a la vista previa es complicado. Google presenta Live HDR+ como una solución a ello, que permite realizar ese proceso, aunque en una escala reducida. El proceso explicado previamente se lleva a cabo en los Pixel 4 y Pixel 4a, aunque en este caso se aplica solo a pequeñas partes de dicha escena. De esta forma, el teléfono puede saber de forma anticipada el procesado necesario y mostrar esa vista previa.
Se trata de un procesado del que se encarga la GPU, que usa además una red neuronal llamada HDRNet. Tiene la capacidad de usar fotos de baja resolución para predecir curvas en un visor de alta resolución. Google ha ido además más allá en los Pixel 4 y Pixel 4a, ya que han introducido el HDR de doble exposición. De esta forma, los teléfonos permiten mostrar esa vista previa y ajustar el HDR en tiempo real, pudiendo trabajar de forma independiente con dos controles.
Una tecnología importante para Google, que mejora así la cámara en sus Pixel 4 y Pixel 4a. Un buen incentivo para comprar estos modelos, sobre todo para usuarios que valoran la cámara y el procesamiento de las imágenes.