Apple Intelligence da sus primeros pasos públicos. La primera tanda de funciones basadas en IA generativa de Apple se lanza en fase de pruebas. Hace unas semanas ocurría lo mismo con la versión iOS 18, la que acompañara a los iPhone 16 en su lanzamiento. Hoy se sabe que estas funciones de IA llegarán más tarde, en octubre y es posible que lleguen a España, pero ahora se les puede echar un primer vistazo.

Se trata de la versión beta para desarrolladores de iOS 18.1, es decir, la primera actualización que recibirá esta nueva versión de su sistema operativo. Como se dio a conocer a principios de esta semana, las primeras funciones de Apple Intelligence llegarán en octubre con una primera actualización de los iPhone 16. 

Abrazar las capacidades de la inteligencia artificial generativa e integrarla con los principales dispositivos de la marca prometen una revolución en Apple. Cada verano, Apple lanza la versión beta de su próxima versión de iOS para contar con el apoyo de los desarrolladores en la mejora del sistema y la búsqueda de fallos. Sin embargo, este año lanza también la versión beta de una actualización posterior a la que se desplegará con el lanzamiento de los iPhone 16. La importancia de esta segunda actualización así lo requiere.

Apple Intelligence en beta

También está disponible en versiones similares para iPad y Mac, pero solo está disponible para desarrolladores registrados de Apple a través de su programa beta que cuesta 99 dólares al año. Para instalar estas actualizaciones, necesitarás un iPhone 15 Pro o Pro Max o, en el caso de iPads y Macs, un sistema con chip Apple Silicon. Es necesario apuntarse a una lista de espera para acceder a la versión beta. 

Siri, asistente virtual de Apple, es el principal receptor de esta novedad. La asistente con voz femenina cambia de look y amplifica sus capacidades. Ahora comprende las órdenes, incluso cuando el usuario se equivoca o pronuncia mal las palabras. Además, puede dar respuestas sobre cómo solucionar ciertos problemas en los productos Apple.

Nuevo aspecto de Siri. Apple Omicrono

En general, la industria tecnológica aspira a que la IA suponga una mayor comprensión entre usuarios y dispositivo, creando una interacción más fluida. El móvil aprenderá a comprender a la persona y no al revés. En este sentido, Apple ha prometido que Siri adquirirá en el futuro la capacidad de operar dentro de las aplicaciones y ajustes del dispositivo bajo las órdenes del usuario.

Por supuesto, no faltan las funciones que ayuda a generar contenido escrito. Apple ofrece transcripciones de llamadas o mensajes de voz, así como correos u otros textos. No hay que olvidar, que Apple Intelligence implica la integración de ChatGPT de OpenAI en los iPhones mediante un acuerdo con el que Apple compensa lo que su propia IA aún no ha alcanzado, pero esta función, aún no se ha desplegado ni para los desarrolladores.

Otras funciones mejoran la búsqueda de fotografías y la creación de películas. En próximas actualizaciones, Apple permitirá limpiar imágenes y se podrán generar fotografías desde cero e, incluso, emojis.

Desarrollando IA con chips de Google

Para construir el modelo de IA que funcionará en iPhones y otros dispositivos, un artículo de investigación publicado por Apple, señala que la empresa utilizó 2.048 chips TPUv5p de Google. El informe describe la infraestructura de hardware y software de sus herramientas y funciones de IA y en él no se menciona en absoluto el hardware de Nvidia, líder de la industria.

Por otro lado, para su entrenar su modelo de IA en servidores, el informe indica que Apple implementó 8.192 procesadores TPUv4. Nvidia no diseña TPU, sino que centra sus esfuerzos en las llamadas unidades de procesamiento gráfico (GPU), que se utilizan ampliamente en iniciativas de IA.