Google ha demostrado lo tremendamente útil que puede ser la Inteligencia Artificial para los usuarios «corrientes», también las reservas que llega a provocar esa cada vez más potente tecnología. No hay duda de que uno de los servicios con IA más potentes de la empresa es Google Assistant, pero hay otra app asociada que también posee un enorme potencial: Lens.
Google Lens es un sistema de reconocimiento integrado en la aplicación búsqueda de Google con el que basta apuntar con la cámara para saber qué hay delante. El potencial de Lens es enorme: desde saber la historia de un edificio a reconocer una seta, por poner dos ejemplos. Esta aplicación no ha dejado de evolucionar, como demuestra el profundo rediseño a la que se ha visto sometida.
Conocíamos algunos detalles de este nuevo diseño, también las funcionalidades que se estrenaban con él: Google las mostró en el anterior I/O. La buena noticia es que ya comienzan a estar disponibles por más que el despliegue sea tan lento como Google acostumbra.
Nuevos modos de captura en Google Lens y un carrusel horizontal para elegirlos
Google Lens ha evolucionado de manera notable desde su punto de partida, el Google I/O de 2017. Presentado como una extensión de Google Assistant para la cámara, Lens ahora es mucho más completo ya que no solo reconoce objetos, edificios o textos, también puede identificar menús de restaurante o traducir directamente sobre el texto capturado. El carrusel ayuda mucho a aplicar justo el modo necesario.
Como explica 9to5Google, el nuevo diseño y funcionalidad de Google Lens ha comenzado a llegar a los primeros usuarios, de momento un selecto grupo de Google Pixel. Nosotros no hemos podido probarlo en nuestros móviles, de ahí que seguramente se trate de una prueba reducida y localizada a Estados Unidos, algo habitual.
Con el nuevo carrusel de Google Lens pueden seleccionarse distintos modos de reconocimiento; o dejarlo en automático, la lupa que lleva funcionando desde el inicio. Cada uno de los modos centrará las opciones de la Inteligencia Artificial en ese tipo de temática:
- Traducción. Google Lens sobreimpresionará los textos traducidos en la captura.
- Texto. Lens identificará los textos en pantalla y permitirá copiarlos fácilmente.
- Automático. Será la aplicación la encargada de adaptarse al contexto.
- Shopping. Google Lens identificará códigos de barras y productos ofreciendo opciones de compra.
- Comida. Con solo hacerle la foto a un menú sabremos qué tipo de comida es cada plato. Las imágenes correrán a cargo de Google Maps.
No sabemos aún cuándo llegarán estas nuevas opciones a todos los móviles, aunque seguramente tardarán. Google acostumbra a hacer pruebas cerradas primero sobre sus Pixel y en Estados Unidos. Después abre el servicio a dichos Pixel en el resto del mundo y, por último, expande las opciones al resto de Android compatibles. Solo queda esperar para probar este rediseño de Google Lens.