Google ha publicado los resultados de cuatro experimentos relacionados con la inteligencia artificial en los que demuestra cómo un ordenador continúa una melodía empezada por nosotros y cómo también es capaz de ordenar sonidos por similitudes.
Si los bots son el futuro de la interacción con las máquinas está claro que la inteligencia artificial es el futuro de cómo esas máquinas podrán procesar los datos. O pensar.
La IA de Google toca música con un humano
En el primer experimento el desarrollador ha programado su aplicación para que sea capaz de continuar una melodía empezada por un humano.
Para ello ha estudiado cientos de melodías y canciones de todas las épocas de las cuales extrae las secuencias más lógicas y usadas en función de las notas musicales usadas.
No se trata de repetir una partitura concreta sino de entender cuales son las opciones lógicas en función de lo que ha escuchado previamente y en base a ello continuar la canción.
Ordenando todos los sonidos
Aunque la comparación de la capacidad de una máquina con la de una persona suele ser favorable a la segunda hay tareas para las que un ordenador está más capacitado. Esta es uno de ellos.
En esta ocasión son tres los desarrolladores, que también son músicos, que usando un algoritmo llamado t-SNE especializado en ordenar datos en varias dimensiones. Gracias a él se han listado muchos sonidos ordenados por su huella identificativa y la inteligencia artificial es capaz de ordenar sonidos de la vida real en función de su parecido.
La IA es el nuevo en las peleas de gallos
Los mejores raperos se baten en peleas de gallos, enfrentamientos de improvisación en los que hacen rimas sobre diferentes temas.
Eso es justo lo que hace la última inteligencia de la que hablamos hoy, capaz de reconocer imágenes usando la API de Google de visión en la nube y luego componer una breve rima usando los conceptos de esa API y un sintetizador de voz.
Traduciendo fotografías
Pero no en todos estos experimentos los sonidos tiene especial importancia. En este caso vemos cómo la unión de algunas API como la de reconocimiento de imágenes y la de traducción de Google se unen para enseñarnos cómo traducir la palabra usada para algo que vemos en pantalla a diferentes idiomas.
Todos estos experimentos demuestran que la IA de Google se encuentra en una etapa temprana de su desarrollo pero nos permiten ver hacia dónde irá el comportamiento de las aplicaciones y sistemas operativos en el medio y largo plazo, sobre todo cuando los integremos en dispositivos de uso diario como los móviles o los coches.