Todavía estamos con la 'resaca' del lanzamiento de los Pixel 9 en España, pero ya tenemos que pensar en la próxima generación, y por un buen motivo. Se espera que el Pixel 10 suponga un gran salto respecto a los modelos actuales, gracias al nuevo procesador Tensor G5, el primero diseñado sin depender de Samsung y con un nuevo proceso de fabricación.
El nuevo chip permitirá a Google expandir las posibilidades del Pixel 10, y como era de esperar, el rendimiento en IA se verá muy mejorado gracias a la TPU del nuevo chip. La última filtración publicada por Android Authority revela que esa potencia será aprovechada en nuevas funciones basadas en IA diseñadas para mejorar la fotografía, entre otras cosas.
Pero el Pixel 10 no dependerá sólo de la IA para conseguir mejores fotos, y el chip soporta una calidad de imagen y funciones que hasta ahora no eran posibles. Por ejemplo, se ha revelado que el Pixel 10 por fin podría soportar captura de vídeo a 4K y 60 fps con HDR; una de las grandes limitaciones de los Pixel actuales es que el vídeo a 4K sólo se puede capturar a 30 fps, a diferencia de sus rivales.
Otro aspecto que mejorará mucho será el zoom, aunque para eso tendríamos que esperar al Pixel 11, que estrenará una cámara telefoto 'de nueva generación'; aunque la filtración no especifica en qué consistirá esta innovación, todo indica que será una mejora de 'hardware' con un nuevo sensor y unas nuevas lentes que deberían ponerse a la altura de los mejores, como el Samsung Galaxy S Ultra. A eso hay que sumar que el chip del Pixel 11 soportará zoom de 100 aumentos usando aprendizaje automático para aumentar fotos y vídeos; eso, junto con la nueva cámara, debería resultar en fotos muy lejanas de alta calidad.
La grabación de vídeo en situaciones de baja luz pegará un salto con el Pixel 11, con un nuevo modo 'Ultra Low Light', también conocido como 'Visión Nocturna'. Aunque la cámara de los Pixel actuales ya cuenta con un modo con el mismo nombre, necesita el poder de la nube de Google para aplicar los algoritmos de mejora. El Pixel 11 podrá ejecutar ese código de manera local y mejorar nuestros vídeos nocturnos en cualquier momento, en condiciones de luminosidad muy baja, entre 5 y 10 lux, el equivalente a una habitación mal iluminada.
La filtración proviene, sorprendentemente, de la división gChips de Google, aunque muchos de los detalles tienen que ver con el 'software' y no tanto con el 'hardware'. Por ejemplo, Google quiere potenciar la edición de imágenes en el móvil usando IA, con una nueva herramienta llamada 'Speak-to-Tweak' (Habla para retocar), además de creación de imágenes a partir de bocetos, como ya es posible con Galaxy AI de Samsung.
Otras funciones son más misteriosas, como un "Espejo mágico", y otras son las mismas que ya tenemos, pero ejecutadas de manera local en el móvil y sin conexión a Internet; por ejemplo, Pixel Studio sería capaz de ejecutar la creación y edición de imágenes directamente en el Tensor G5.
Además de la fotografía, la filtración revela que la ejecución de IA local será usada en otras funciones, como las relacionadas con la salud. El móvil sería capaz de detectar problemas como la apnea del sueño, los ronquidos, tosidos, caídas y otros problemas, con la monitorización continua. Y para los 'runners', prepara funciones de registro avanzado de la actividad, incluyendo un entrenador que nos ayuda a mantener el ritmo.