Si los propios ingenieros de Google se lo han pasado en grande detallando algunos de los momentos estelares de la presentación del nuevo chatbot con IA de la gran G, Bing de Microsoft tampoco estuvo muy acertado, lo que ocurre que ahora ChatGPT está envuelto por un aura bien especial.
[ChatGPT para tu móvil es oficial, así podrás conseguir acceso a la IA]
ChatGPT en Bing por Microsoft
Rodeado de todo el misterio que envuelven a las mejores historias de ciencia ficción, ChatGPT puede incluso cometer errores para que no sobresalgan tanto como los producidos por Google en la presentación de Bard.
Dmitri Brereton descubrió en las primeras demos de la IA de Bing algunos errores en los datos financieros presentados. Microsoft utilizó varias muestras para mostrar el poder que ofrece la IA de su buscador Bing.
Desde los puntos positivos y negativos de las aspiradoras para mascotas hasta la planificación de un viaje de 5 días a México, e incluso comparar datos financieros. En todos esos reportes Bing no fue tajantemente estricto en los datos ofrecidos y pasó olímpicamente de ofrecer detalles sobre algunos de los establecimientos a los que ir en México o simplemente liarse con los datos financieros ofrecidos.
En una de esas demostraciones tenemos a la IA de Bing dar un sumario del reporte financiero del tercer trimestre de 2022 para la marca de ropa Gap con muchos datos erróneos.
El reporte dado por Gap menciona que el margen bruto fue del 37,4 %, con un margen ajustado al 38,7 % excluyendo un cargo por deterioro. Bing aquí deja caer los datos con un 37,4 % en el que se incluye el margen de ajuste y los cargos por deterioro.
De hecho, se tira a la piscina con un margen de operaciones reportado de Gap del 5,9 %, cuando realmente ha sido del 4,6 %, o un 3,9 % con los cargos por deterioro. Cifras inexactas para una IA que debería de acertar en cada una de ellas.
Todavía le queda para ser precisa
Otra de las demos compara los datos financieros de Gap a los mismos resultados recogidos por Lululemon durante ese mismo trimestre de 2022. De nuevo Bing genera errores con los datos de Lululemon y el resultado es una comparación repleta de fallos.
En el reporte de los puntos positivos y negativos, se cita a una aspiradora para pelo de mascotas y uno de sus contras es tener una "longitud de la cuerda de 16 pies". Menudo lío, ya que las aspiradoras no tienen cuerdas, y en este caso sería una aspiradora de mano portátil.
Ahora bien, estos fallos fueron recogidos en las demostraciones hechas por la misma Microsoft, pero si nos vamos a los miles de personas que están usando la IA de Bing en estos días, los errores siguen estando ahí.
De hecho, vía The Verge, un usuario en reddit reporta que la IA de Bing mantiene que todavía estamos en 2022 e incluso cuando se le reprocha su inexactitud, Bing le sugiere que revise los ajustes correctos y que se asegure que el móvil no tiene un virus o un bug.
¿Qué dice Microsoft al respecto?
Hay que decir que estamos en un periodo previo de pruebas del nuevo buscador con la nueva integración de ChatGPT, así que la misma Microsoft pide un poco de paciencia, ya que el sistema puede generar errores y es de vital importancia que se recoja por parte de los usuarios el feedback necesario para mejorarlo.
Y es que se están generando todo tipo de errores desde la enseñanza de "vocablos étnicos", datos erróneos sobre como que Croacia dejó la Unión Europea en 2022, o que el mismo chatbot se refiere a sí mismo como Sidney, justo uno de los últimos hackeos llevados a cabo por un usuario.
No hay que olvidarse que realmente ChatGPT está ofreciendo muchas ventajas y estos errores se irán limando, lo que nos deja ante una IA que todavía dista de ser perfecta, pero por lo visto en estos meses pasados sus puntos positivos ganan con creces a los negativos
Te puede interesar
- ChatGPT en modo desenfrenado: su "cerebro" es hackeado y responde sin pelos en la lengua
- Opera anuncia la integración de ChatGPT y así da comienzo la guerra de los navegadores
- Cómo instalar el nuevo navegador Edge con ChatGPT integrado y probar el nuevo Bing con IA
- Hackean ChatGPT en Bing en cuestión de minutos y descubren su nombre real