Cuidado: esto es lo que nunca debes preguntarle al nuevo círculo azul de WhatsApp, la IA de Meta
El chatbot o asistente virtual también está en Instagram de manera gratuita.
Lunes 29 de julio 2024 | 19:20 Hs.
La app de mensajería instantánea WhatsApp comenzó a incorporar un nuevo chatbot de inteligencia artificial desarrollado por Meta. Esta IA permite a los usuarios realizar distintas acciones, desde pedir recomendaciones sobre cómo hacer algún trabajo académico o solicitar imágenes de acuerdo a lo que se le ordene.
Este chatbot llamado Meta AI, está señalizado en la aplicación en forma de un círculo azul y al usarlo se guarda como una conversación más en la lista de contactos. La actualización no requiere de aplicaciones adicionales ni de suscripciones de pago; únicamente es necesario mantener la plataforma actualizada para acceder a esta función.
Para los usuarios que ya la comenzaron a usar, y también para los que no, es importante saber que no todo es un tema de conversación para la inteligencia artificial de Meta. Hay ciertos asuntos sensibles que el chatbot no puede tratar y que evitará ante cualquier insistencia.
Para saber lo que nunca se puede preguntar a Meta AI en WhatsApp, le solicitamos al mismo chatbot la respuesta, que consistió en cinco temas que están prohibidos tratar por la inteligencia artificial.
El primer tema mencionado es el contenido explícito o inapropiado. De acuerdo con Meta AI, está programada para evitar cualquier tipo de contenido que incluya conversaciones de naturaleza sexual, material grosero o cualquier tipo de lenguaje que se considere ofensivo.
Si un usuario intenta entablar una conversación sobre alguno de estos temas, el asistente redirigirá la conversación hacia un tema diferente. Puede, por ejemplo, sugerir temas relacionados con entretenimiento, tecnología o cultura, que sean aptos y seguros para el entorno del chat.
Mensajes de violencia, odio y discriminación es otro de los temas que no se deben solicitar a la inteligencia artificial de WhatsApp. Esto incluye comentarios racistas, homofóbicos, xenofóbicos o cualquier otro tipo de discurso que fomente el odio basado en religión, género, etnia o cualquier otra característica personal.
En situaciones donde un usuario comience a tratar alguno de estos temas, el asistente buscará desviar la conversación hacia tópicos totalmente distintos, promoviendo el respeto y la inclusión.
¿Puedo pedir información privada o íntima a la IA de WhatsApp?
Los temas que impliquen la divulgación de información personal o confidencial son también de alta prioridad para Meta AI. Esto incluye datos como direcciones, números de teléfono, información bancaria y cualquier otra información privada que podría comprometer la seguridad del usuario.
En estos casos, Meta AI no solicitará ni guardará este tipo de información. En lugar de ello, el asistente puede explicar la importancia de mantener la privacidad y seguridad en el entorno digital, recomendando buenas prácticas como nunca compartir datos personales en plataformas públicas.
Por qué no pedirle consejos médicos a la inteligencia artificial de WhatsApp
Meta AI puede ofrecer información general en temas de salud y legales, pero no está diseñado para reemplazar el consejo de profesionales calificados. Al tratarse de temas complejos y que varían en cada caso individual, ofrecer asesoramiento médico o legal específico puede tener consecuencias negativas importantes.
Si se le solicita consejo sobre estas áreas, el asistente facilitará información general, como datos educativos sobre un tema de salud o la explicación de leyes vigentes, insistiendo en la importancia de consultar a un médico o abogado para obtener consejos acertados y personalizados.
¿Puedo solicitar a la IA de WhatsApp que realice un delito?
Meta AI está completamente programado para evitar cualquier discusión que involucre actividades ilegales o dañinas. Esto incluye, pero no se limita a, información sobre drogas, delincuencia, piratería informática, o cualquier actividad que implique daño físico o emocional a otros.
En el caso de que se intente iniciar una conversación sobre alguno de estos tópicos, el asistente se alejará de la conversación, recordando al usuario las consecuencias legales y morales de tales actos, y redirigiendo el diálogo a actividades legales y seguras.
Qué hace la IA de WhatsApp si le preguntan temas que están prohibidos
Meta AI tiene diferentes maneras de proceder para asegurarse de que las conversaciones se mantengan dentro de un marco seguro. Además de redirigir la conversación y ofrecer recursos generales, es posible que el asistente pida al usuario que elija un tema diferente,
Meta AI también puede sugerir enlaces a páginas web autorizadas y fuentes confiables donde los usuarios puedan obtener la información que buscan de una manera segura y legal.
Fuente: Infobae
Este chatbot llamado Meta AI, está señalizado en la aplicación en forma de un círculo azul y al usarlo se guarda como una conversación más en la lista de contactos. La actualización no requiere de aplicaciones adicionales ni de suscripciones de pago; únicamente es necesario mantener la plataforma actualizada para acceder a esta función.
Para los usuarios que ya la comenzaron a usar, y también para los que no, es importante saber que no todo es un tema de conversación para la inteligencia artificial de Meta. Hay ciertos asuntos sensibles que el chatbot no puede tratar y que evitará ante cualquier insistencia.
Para saber lo que nunca se puede preguntar a Meta AI en WhatsApp, le solicitamos al mismo chatbot la respuesta, que consistió en cinco temas que están prohibidos tratar por la inteligencia artificial.
El primer tema mencionado es el contenido explícito o inapropiado. De acuerdo con Meta AI, está programada para evitar cualquier tipo de contenido que incluya conversaciones de naturaleza sexual, material grosero o cualquier tipo de lenguaje que se considere ofensivo.
Si un usuario intenta entablar una conversación sobre alguno de estos temas, el asistente redirigirá la conversación hacia un tema diferente. Puede, por ejemplo, sugerir temas relacionados con entretenimiento, tecnología o cultura, que sean aptos y seguros para el entorno del chat.
Mensajes de violencia, odio y discriminación es otro de los temas que no se deben solicitar a la inteligencia artificial de WhatsApp. Esto incluye comentarios racistas, homofóbicos, xenofóbicos o cualquier otro tipo de discurso que fomente el odio basado en religión, género, etnia o cualquier otra característica personal.
En situaciones donde un usuario comience a tratar alguno de estos temas, el asistente buscará desviar la conversación hacia tópicos totalmente distintos, promoviendo el respeto y la inclusión.
¿Puedo pedir información privada o íntima a la IA de WhatsApp?
Los temas que impliquen la divulgación de información personal o confidencial son también de alta prioridad para Meta AI. Esto incluye datos como direcciones, números de teléfono, información bancaria y cualquier otra información privada que podría comprometer la seguridad del usuario.
En estos casos, Meta AI no solicitará ni guardará este tipo de información. En lugar de ello, el asistente puede explicar la importancia de mantener la privacidad y seguridad en el entorno digital, recomendando buenas prácticas como nunca compartir datos personales en plataformas públicas.
Por qué no pedirle consejos médicos a la inteligencia artificial de WhatsApp
Meta AI puede ofrecer información general en temas de salud y legales, pero no está diseñado para reemplazar el consejo de profesionales calificados. Al tratarse de temas complejos y que varían en cada caso individual, ofrecer asesoramiento médico o legal específico puede tener consecuencias negativas importantes.
Si se le solicita consejo sobre estas áreas, el asistente facilitará información general, como datos educativos sobre un tema de salud o la explicación de leyes vigentes, insistiendo en la importancia de consultar a un médico o abogado para obtener consejos acertados y personalizados.
¿Puedo solicitar a la IA de WhatsApp que realice un delito?
Meta AI está completamente programado para evitar cualquier discusión que involucre actividades ilegales o dañinas. Esto incluye, pero no se limita a, información sobre drogas, delincuencia, piratería informática, o cualquier actividad que implique daño físico o emocional a otros.
En el caso de que se intente iniciar una conversación sobre alguno de estos tópicos, el asistente se alejará de la conversación, recordando al usuario las consecuencias legales y morales de tales actos, y redirigiendo el diálogo a actividades legales y seguras.
Qué hace la IA de WhatsApp si le preguntan temas que están prohibidos
Meta AI tiene diferentes maneras de proceder para asegurarse de que las conversaciones se mantengan dentro de un marco seguro. Además de redirigir la conversación y ofrecer recursos generales, es posible que el asistente pida al usuario que elija un tema diferente,
Meta AI también puede sugerir enlaces a páginas web autorizadas y fuentes confiables donde los usuarios puedan obtener la información que buscan de una manera segura y legal.
Fuente: Infobae
Más leídas
Más noticias
© 2024 Radiocanal - Todos los derechos reservados