El pasado 10 de junio, Apple celebró su conferencia mundial de desarrolladores (WWDC 2024) en la que dio a conocer 'Apple Intelligence', su inteligencia artificial (IA) que llega al iPhone, iPad y Mac; además de su acuerdo con OpenAI para la integración de ChatGPT. Un movimiento, este último, que no sentó nada bien a Elon Musk, quien amenazó con prohibir estos dispositivos en sus empresas, y que ha generado algo de revuelo. Tanto que el gigante tecnológico ha salido al paso afirmando que no usan ni los datos privados ni las interacciones de los usuarios para entrenar a su algoritmo.
Unas declaraciones que surgen justo después de que Microsoft pospusiera la función Recall de Windows 11 que ponía en peligro la privacidad del usuario. En el caso de Apple, durante el WWDC 2024 la compañía se centró en cierta parte a explicar lo útiles que serán las herramientas de inteligencia artificial que llegarán a sus dispositivos; y a garantizar a los usuarios la privacidad de sus datos gracias al nuevo algoritmo. Una privacidad que es posible gracias a un doble enfoque en el que las tareas comunes de IA se realizan en el dispositivo, como transcribir llamadas u organizar horarios.
Mientras que la IA recurre a servidores en la nube para peticiones más complejas que incluyan el envío de datos contextuales personales. Y la empresa con sede en Cupertino (Estados Unidos) ha centrado sus esfuerzos en asegurarse de que ambos enfoques ofrecen buenos resultados al tiempo que mantienen la privacidad de los datos. Aunque una de las grandes novedades es que el gigante tecnológico está utilizando sus propios modelos caseros de IA para Apple Intelligence, según informan desde The Verge.
En ese sentido, el gigante tecnológico asegura que no entrena sus modelos con los datos privados ni con las interacciones de los usuarios, lo cual es único en comparación con otras empresas. Por el contrario, la compañía de la manzana mordida está empleando materiales con licencia y datos en línea que están disponibles de forma pública; y que son extraídos por el rastreador web 'Applebot' de Apple. Incluso los editores deben optar por no participar si no quieren que la firma liderada por Tim Cook ingiera sus datos.
Esto es algo similar a las políticas de Google y OpenAI. El gigante tecnológico también apunta que para entrenar a su algoritmo omite la alimentación de la seguridad social y números de tarjetas de crédito que están flotando en Internet; y hasta ignora "blasfemias y otros contenidos de baja calidad". Por otro lado, Apple confirma que ha optimizado sus modelos para acelerar el tiempo entre el envío de una indicación y la entrega de una respuesta, y que usa técnicas como la "decodificación especulativa" para aprovechar el motor neuronal de Apple Silicon.
En cuanto a las tareas de IA que se ejecutan en la nube, la firma señala que no puede acceder a los datos personales del usuario, ya que está desprovisto de herramientas de gestión de servidores. Y que aquella información extraída se elimina en la nube posteriormente. Apple también está abordando los problemas de privacidad convirtiéndolos en un obstáculo ajeno. Es decir, Siri puede enviar algunas consultas a ChatGPT en la nube, pero sólo con permiso después de que el usuario realice preguntas diferentes. Por lo que la privacidad se pone en manos de OpenAI.