No puedo expresar en pocas palabras todo lo que me gusta la cámara incluida en los Google Pixel: es una baza tan enorme que los móviles valen lo que cuestan solo por ella. Y lo más impresionante es que consiguen excelentes resultados con un solo sensor; dejando casi todo el trabajo en manos del procesado de Google. Lo que ocurre una vez se toman las fotos es casi magia, así lo ha explicado la propia Google.
¿Cómo consigue la cámara de los Google Pixel que las imágenes obtenidas dispongan de un gran nivel de detalle incluso utilizando un solo sensor? La clave está en el disparo de varias tomas y en el análisis computerizado foto por foto para encontrar la mejor combinación en una imagen final. Todo en tiempo real y desde el smartphone: es impresionante.
Captura en ráfaga de imágenes sin procesar para pulir detalles por capas y combinarlas en una sola imagen
El proceso que se lleva a cabo en la cámara de los Google Pixel cuando se toma una fotografía es una combinación de pasos donde entran en juego desde las capacidades del sensor tomando ráfagas de varias fotos a la Inteligencia Artificial encargada de analizar todos los detalles para elegir cómo combinar la ráfaga. Los pasos se realizan de manera automática y en segundo plano sin que el usuario apenas los perciba. Y con Zero Shutter Lag, para que así exista el menor lapso de tiempo entre una toma y la opción de capturar la siguiente.
La clave es el disparo de varias fotografías para lograr una sola toma combinada con el máximo nivel de detalle y sin artefactos incluso zoom de alta resolución incluido en los Pixel. Google aclara que toma entre 7 y 15 imágenes dependiendo de las condiciones lumínicas: si hay suficiente luz con 7 tomas suele bastar; con iluminación algo deficiente suelen combinarse hasta 15 fotografías.
La cámara dispara entre 7 y 15 fotografías para combinarlas según la iluminación
Investigadores de Google han detallado todo el proceso de captura y procesado que realiza la cámara de los Google Pixel en un pormenorizado paper que han hecho público. Su procesado, nativo en la cámara de los Pixel, analiza las imágenes tomadas en bruto para dividirlas por capas; logrando combinarlas tras analizar los objetos, los gradientes de las imágenes y detalles de movimiento. Esto consigue que no solo se elimine la trepidación, algo habitual en las fotografías con un alto nivel de zoom, también se logra un mayor nivel de detalle eliminando artefactos y otros defectos de las tomas.
A continuación tienes un vídeo donde se muestra el proceso que entra en juego cada vez que se pulsa el botón de disparo en la cámara de los Google Pixel.
Google ha logrado lo que no ha conseguido ningún otro fabricante, incluso aunque su especialidad sea la fotografía: apoyada en el disparo múltiple, la Inteligencia Artificial y la interpolación de las fotografías, su cámara obtiene imágenes casi impensables en un smartphone. Y sin multiplicar sensores, que la cámara triple se ha convertido casi en un estándar en Android.