Chat GPT ahora es capaz de detectar las 'banderas rojas' en un chat.

Chat GPT ahora es capaz de detectar las 'banderas rojas' en un chat. iStock

Salud y Bienestar

La nueva y sorprendente utilidad de Chat GPT: así detecta rápidamente las 'red flags' en tus conversaciones

Ahora también es capaz de subrayar aquellos mensajes que considere 'tóxicos' y perjudiciales para nuestra salud mental y el buen avance de la relación.

24 septiembre, 2024 08:02

La inteligencia artificial no deja de sorprendernos. Aunque ya sabíamos que Chat GPT es capaz de redactar textos complejos, guiones de teatro e incluso canciones, se ha descubierto una nueva función que ha dejado perplejo a más de uno: la aplicación también puede detectar las 'red flags' ocultas en una conversación de WhatsApp.

El término red flag ('bandera roja' en español) nos alerta de que una persona puede ser negativa en nuestras vidas si lleva a cabo ciertos comportamientos conflictivos, egoístas o que puedan dar lugar a malentendidos en un futuro.

'Los chicos del fondo', dos chavales que manejan una cuenta de Instagram en la que suben vídeos compartiendo curiosidades de todo tipo, han compartido esta información a través de la plataforma, pero algunos usuarios de TikTok ya habían hecho uso de la herramienta para analizar posibles toxicidades en conversaciones con sus parejas o amigos.

Aunque estas innovaciones resultan curiosas e interesantes para algunos, otros las interpretan como "la perdición de la humanidad" o que dan pie a "una toxicidad extrema".

"Si guardas una conversación de WhatsApp, la introduces en un archivo de texto, y lo subes a Chat GPT pidiéndole a la aplicación que marque las 'red flags', analiza toda la conversación y es capaz incluso de decirte si la otra persona es tóxica", cuentan los chicos en el vídeo. Además, según ellos, la IA también marca el mensaje concreto a analizar, y lo interpreta como 'manipulación emocional' o similares. 

Sentimientos encontrados

La publicación recoge opiniones de todo tipo: desde comentarios criticando el servicio y afirmando que "si necesitas que una inteligencia artificial te explique qué comentarios son tóxicos, ve a terapia", hasta otros que alaban la iniciativa y agradecen a Chat GPT por sus servicios, mientras aseguran que se trata de una herramienta efectiva para evitar conflictos.

Aunque todas las opiniones son válidas, y cada persona analizará la situación según su perspectiva y visión sobre este nuevo mundo virtual que se cierne cada vez más sobre nosotros, lo cierto es que debemos ser precavidos con el uso y el valor que le damos a las herramientas de inteligencia artificial, ya que nunca será capaz de tener un criterio que también tome como referencia las emociones humanas, y se guiará únicamente del pensamiento lógico y la información online que pueda recopilar en su base de datos.

Hasta el momento, la IA no puede sustituir el criterio y raciocinio humano.

Hasta el momento, la IA no puede sustituir el criterio y raciocinio humano. iStock

Problemas de seguridad

Aunque esta herramienta pueda llamar la atención de muchos, es importante saber los riesgos que conlleva a la hora de mantener nuestra privacidad y cuidar nuestros datos personales. 

Existen dos opciones para compartir nuestras conversaciones de WhatsApp en Chat GPT y así conseguir que la aplicación los analice: copiando y pegando los mensajes directamente en la barra de la aplicación, o descargando los chats y compartiendo el archivo en formato .txt con el chatbot de OpenAI. Aunque la segunda opción es más efectiva, también tiene un mayor peligro en caso de que prefieras salvaguardar tus datos, ya que compartes todo lo enviado, y no solamente aquellos mensajes que tú mismo seleccionas.

Las nuevas herramientas desarrolladas a través de la IA despiertan opiniones y sentimientos de todo tipo, aunque lo que está claro es que debemos ir con cuidado a la hora de analizar las informaciones que nos proporcionan las máquinas haciendo uso del criterio humano e inteligencia emocional, cosa de la que -al menos de momento- carecen las máquinas. Y tú, ¿dejarías que ChatGPT sentencie lo que es (o no) mejor para ti?