La aplicación de inteligencia artificial (IA) de Meta ha sido calificada como un ‘desastre de privacidad’, ya que muchos usuarios han descubierto que sus conversaciones con el chatbot de Meta AI han sido compartidas públicamente sin su conocimiento.
De acuerdo con el sitio web TechCrunch, el problema radica en que la aplicación no informa claramente a los usuarios sobre sus configuraciones de privacidad, lo que ha llevado a que preguntas personales, embarazosas o incluso sensibles sean visibles en el feed público. Si un usuario inicia sesión en Meta AI con su cuenta de Instagram pública, sus consultas también pueden hacerse públicas automáticamente.
Además, la función de compartir dentro de la aplicación permite publicar conversaciones con un solo clic, pero no advierte de manera explícita que el contenido será visible para todos. Esto ha generado que usuarios publiquen sin darse cuenta preguntas sobre temas personales, legales o médicos, exponiendo información privada a desconocidos.
TE PUEDE INTERESAR: Resiliencia de datos: clave para la seguridad empresarial en 2025
Riesgos y críticas en Meta AI
- Expertos en privacidad han señalado que esta falta de control sobre los datos personales podría violar regulaciones de protección de datos y erosionar la confianza de los usuarios.
- Algunos informes han revelado que incluso los identificadores reales de Instagram y Facebook aparecen junto a las publicaciones de Meta AI, lo que facilita la identificación de los usuarios.
- El problema se agrava porque la historia de los chatbots de IA ya ha estado marcada por prácticas cuestionables de privacidad, como el rastreo de datos en la web para entrenar modelos de IA.
- Hasta el momento, Meta no ha emitido una respuesta oficial sobre estos problemas, pero la creciente preocupación de los usuarios y expertos podría llevar a cambios en la configuración de privacidad de la aplicación.