La magia detrás de la mejor cámara en un smartphone
¿Quieres saber cómo funciona la cámara del Google Pixel 3? Descubre los aspectos más importantes sobre el funcionamiento de esta potente cámara.
8 febrero, 2019 19:33La presentación del Google Pixel 3 volvió a dejar claro que Google se ha convertido en un referente en las cámaras de los smartphones. Desde la primera generación de sus smartphones la marca se ha situado por delante de sus competidores. Pese a que la empresa sigue apostando por una única cámara, algo sorprendente cuando pronto llegarán modelos con cinco cámaras, su nivel sigue siendo superior.
¿Qué hace que la cámara de los Google Pixel 3 sea tan especial? Una de las claves es el uso de la tecnología adecuada, que sirva para potenciar dicha cámara de diversas maneras. Por eso, hay algunos aspectos de enorme importancia que hacen que esta cámara se sitúe por encima de la del resto de marcas en Android. Algo que también queda claro en su análisis.
Súper Zoom
Una de las características más importantes en la cámara del Pixel 3 es el súper zoom. Google ha sorprendido a muchos con la calidad de esta tecnología en el dispositivo. Sacar una buena foto con el zoom era algo imposible, mucho más aún con el zoom digital. Pero la empresa ha sabido encontrar una solución en esta nueva generación. Por eso, la empresa ha estado trabajando años en machine learning, de manera que se pueda mejorar dicha cámara.
Para poder crear imágenes tan nítidas, sin tener que recurrir al aumento, la empresa comienza en propia imagen recortada del zoom digital. Dado que dicha foto no tiene la definición que se obtendría con el zoom óptico, se realiza una deconstrucción de los píxeles de la imagen. Gracias a dicho proceso, es posible separar los colores en varias matrices con cada color. Entonces llega el turno de los algoritmos computacionales, que deben determinar qué colores estarán en los píxeles adyacentes. Todo este proceso queda bien reflejado en la imagen a continuación.
Además, no hay que olvidar que el Pixel 3 llega con HDR+. Se trata de una herramienta que Google lleva años usando en sus teléfonos, con buenos resultados. Gracias a esta tecnología es posible tomar varias imágenes que tengan niveles de exposición diferentes y combinarlos en una única imagen con un rango dinámico óptimo. Una parte de esta tecnología se ha incorporado en este Súper Zoom.
En este caso, lo que se hace es realizar una comparación directa con tomas ligeramente movidas. Al tener varias tomas, hay más información que con una única toma con zoom digital. Esto es lo que se usa en el Pixel 3. De modo que permite tener un zoom con gran nitidez. Así permite obtener dichas imágenes de calidad.
Computacional Raw
Otra característica, llamada a marcar un antes y un después en la fotografía en Android. El computacional Raw es algo que ha sorprendido a multitud de usuarios en el Google Pixel 3. En un teléfono, cuando se hace uso del modo RAW, se obtiene un archivo en dicho formato, de la manera que el sensor lo ha recogido. Se trata entonces de un RAW en bruto, que el usuario va a tener que revelar.
Aunque en el caso del buque insignia de la firma, se apuesta por otro sistema. En lugar de obtener un archivo DNG como lo arrojaría la propia cámara, el Pixel 3 realiza una serie de fotos. Estas fotos se fusionan en una única foto, que da como resultado un archivo DNG que posee mucha más información. Por tanto, permite al usuario trabajar de una manera más profunda.
Así que en el Pixel 3 se arroja un archivo DNG, que es el resultado de fusionar múltiples fotografías. Por eso, permite obtener un resultado muy parecido al que se obtendría en una DSRL. Pero se proporciona mucha más información en este caso. Gracias a ella, se podrán llevar a cabo más tareas de edición. Como resultado, por tanto, mejores imágenes.
Por tanto, no sorprende que algunos lo vean como una amenaza a cámaras tradicionales. Ya que el Pixel 3 puede competir a nivel RAW con cámaras profesionales. Pero para la empresa esto es solo el comienzo. Por lo que en futuros modelos podría haber aún más mejoras en este campo.
Synthetic Fill Flash
Google ha tenido en cuenta la manera en la que fotógrafos tratan de obtener más luz en una fotografía. Es habitual que en estos casos se usen reflectores de luz. Se trata de unos elementos que permiten reflejar la luz directamente. Además, se pueden usar en cualquier zona en la imagen. Por eso, Google ha buscado una manera de reflectar la luz de una forma computacional. El Pixel 3 se convierte en el primer smartphone en introducir esto.
Cuando se saca una foto con un smartphone, si el rostro está mal iluminado, pueden pasar dos cosas. O bien dicho rostro sale oscuro o toda la exposición se traslada a dicho rostro. De modo que el fondo de la foto va a perder información. Esto es algo que Google quiere evitar con Synthetic Fill Flash. Por eso, logran exponer de una manera correcta tanto el rostro como el fondo. Según muchos expertos, uno de los mayores retos a la hora de ajustar los controles de la cámara.
Google ha tratado de emular la luz que un reflector proyecta, mediante software. Lo han hecho aplicando exposición al rostro de una forma selectiva. Mediante el Machine Learning se analizan los rostros de las personas. De esta manera, los Pixel 3 añaden exposición adicional a los mismos, de una manera selectiva. Ya que se busca emular el efecto de los reflectores de una forma natural. Además, también se busca evitar que luces altas se descontrolen en este sentido.
Learning Based Depth Map
Desde la primera generación, Google introdujo la posibilidad de crear un mapa de profundidad. En este Pixel 3 se han introducido mejoras en este campo. Por eso, resulta más completa la forma en la que se obtiene dicho mapa de profundidad con el dispositivo. Ya que permite un mejor recorte con el que obtener más información. Además, sobre todo se permite una mejor interpretación de la profundidad de dicho mapa.
Con este nuevo modelo, la marca ha mejorado el algoritmo. Como se ha visto hasta ahora, se basa en el aprendizaje automático. De esta manera, tiene la capacidad de computar la información estéreo del Dual Pixel. Esto es algo que permite obtener un desenfoque más uniforme. Se trata de algo que se puede apreciar de una manera mucho mejor consultando algunas fotos. En las fotos a continuación se puede apreciar mejor su funcionamiento y las mejoras que han llegado:
Por tanto, el algoritmo que se ha introducido en el Pixel 3 es aún mejor. Además, consigue aplicarse en nuevas zonas en las que la anterior generación del teléfono no llegaba. Por lo que ha habido un importante avance en este sentido por parte de Google. Principalmente, esto se debe a los algoritmos de aprendizaje automático en el dispositivo. Son los que permiten que el teléfono obtenga fotografías con un mapa de profundidad avanzado. Además, un aspecto de importancia es que las mejoras en este desenfoque también se pueden apreciar en fotos a cierta distancia, no solo en el modo retrato.
Google busca también situarse como un referente en el modo retrato. Esta ha sido una ambición de la firma desde la primera generación, algo que no ha cambiado con el Pixel 3. De hecho, esto es algo que queda patente cuando se ve que otras marcas buscan imitar su método en sus teléfonos.
Night Sight
Night Sight no debe ser visto como un modo noche al uso. Google busca ir más allá con este sistema en su Pixel 3. Porque la firma lo plantea como un método que permite obtener fotos en aquellas situaciones en las que antes resultaría imposible obtener una foto. Por tanto, en situaciones en las que las condiciones de luz fueran pésimas. La manera en la que la marca consigue esto en la cámara del teléfono es tomando una serie de fotos de baja exposición.
En ellas se renuncia al zero shutter lag (que el teléfono vaya a disparar de inmediato). Por eso, se toman unos pocos segundos para hacer una foto. Como resultado final, se ofrece una foto que tien unos cinco segundos de exposición. Gracias a esto, se consigue mejorar de manera notable la cantidad de luz en dicha foto. Esto es algo que se puede apreciar perfectamente en las dos fotos que hay aquí. Las diferencias de luz entre ambas son muy claras.
Esto es algo posible, por sorprendente que suene. Ya que el Google Pixel 3 se encarga de analizar los colores que la foto debería tener. Lo hace aunque haya una asuencia total de luz en dicho momento. Para ello, se hace uso del Machine Learning, que permitirá que se obtengan fotos bien iluminadas en todo tipo de situaciones de luz. Por eso, no se obtienen fotos irreales o pálidas, que es algo que pasa con la cámara de otros smartphones en este tipo de condiciones.
Aunque es importante no ver este Night Sight como un modo noche. Google no lo ha diseñado de esta manera para la cámara de su Pixel 3. Desde la empresa lo ven como un modo a usar en situaciones extremas. Por tanto, con el mismo se podría recuperar información que de otro modo no es posible recuperar. Se puede ver más sobre el funcionamiento del modo noche aquí.