5 cosas que nunca deberías pedirle a ChatGPT que haga

OpenAI lanzó ChatGPT por primera vez en noviembre de 2022 y rápidamente se convirtió en el chatbot más grande del mundo. Los usuarios inicialmente se apresuraron a hacer una variedad de preguntas a la plataforma, pero también tienen limitaciones críticas que pueden poner en riesgo tu privacidad, seguridad o bienestar si se usan incorrectamente. 

Aunque ChatGPT sobresale en tareas como la respuesta a preguntas, el resumen de texto, la traducción y la generación de código, también tiene algunas limitaciones serias. En particular, ChatGPT y todos los grandes modelos de lenguaje (LLM) tienen tendencia a alucinar y a compartir con confianza información categóricamente falsa.

A continuación, veremos las 5 cosas principales que nunca debes pedirle a ChatGPT que haga. Ya sea que se trate de buscar orientación médica, buscar apoyo para la salud mental, generar deepfakes no consensuados o producir contenido de odio, aquí hay algunos casos de uso que debe evitar por completo si desea disfrutar de una experiencia de usuario positiva.

TE PUEDE INTERESAR: Google Modo IA: llegan nuevas funciones para imágenes, PDFs y video en tiempo real

Qué no debes pedirle a ChatGPT que haga

1. Dar consejos médicos

  • ChatGPT puede generar respuestas convincentes, pero no es un profesional de la salud.
  • Las alucinaciones pueden llevar a diagnósticos o tratamientos erróneos.
  • Siempre consulta fuentes médicas confiables o profesionales certificados.

2. Ofrecer apoyo de salud mental

  • Los LLM no tienen empatía ni comprensión emocional real.
  • Según algunas estimaciones, casos trágicos han demostrado que confiar en chatbots para apoyo emocional puede ser peligroso.
  • Busca ayuda humana de psicólogos o psiquiatras capacitados.
  • En un trágico incidente, Sewell Setzer III, de 14 años, se quitó la vida después de que un chatbot desarrollado por Character AI lo animó a hacerlo. 

3. Producir deepfakes

  • Crear o distribuir deepfakes no consensuados puede ser ilegal en muchas jurisdicciones.
  • Algunos estados de EE. UU. imponen multas y penas de cárcel por su uso indebido.
  • Incluso donde son legales, podrían requerir etiquetado obligatorio como contenido sintético.

4. Generar contenido de odio

  • ChatGPT tiene filtros para evitar contenido discriminatorio, violento o abusivo.
  • Intentar evadir estas restricciones puede llevar al bloqueo de tu cuenta.
  • La ética digital importa: si el contenido degrada, mejor no lo generes.

5. Procesar datos personales

  • OpenAI puede usar tus entradas para entrenar sus modelos, a menos que lo desactives.
  • Nunca compartas información sensible como nombres, contraseñas o datos financieros.
  • Casos como el de Samsung en 2023 muestran los riesgos de filtraciones accidentales.

Foto: Pexels.

Deja una respuesta