OpenAI lanzó ChatGPT por primera vez en noviembre de 2022 y rápidamente se convirtió en el chatbot más grande del mundo. Los usuarios inicialmente se apresuraron a hacer una variedad de preguntas a la plataforma, pero también tienen limitaciones críticas que pueden poner en riesgo tu privacidad, seguridad o bienestar si se usan incorrectamente.
Aunque ChatGPT sobresale en tareas como la respuesta a preguntas, el resumen de texto, la traducción y la generación de código, también tiene algunas limitaciones serias. En particular, ChatGPT y todos los grandes modelos de lenguaje (LLM) tienen tendencia a alucinar y a compartir con confianza información categóricamente falsa.
A continuación, veremos las 5 cosas principales que nunca debes pedirle a ChatGPT que haga. Ya sea que se trate de buscar orientación médica, buscar apoyo para la salud mental, generar deepfakes no consensuados o producir contenido de odio, aquí hay algunos casos de uso que debe evitar por completo si desea disfrutar de una experiencia de usuario positiva.
TE PUEDE INTERESAR: Google Modo IA: llegan nuevas funciones para imágenes, PDFs y video en tiempo real
Qué no debes pedirle a ChatGPT que haga
1. Dar consejos médicos
- ChatGPT puede generar respuestas convincentes, pero no es un profesional de la salud.
- Las alucinaciones pueden llevar a diagnósticos o tratamientos erróneos.
- Siempre consulta fuentes médicas confiables o profesionales certificados.
2. Ofrecer apoyo de salud mental
- Los LLM no tienen empatía ni comprensión emocional real.
- Según algunas estimaciones, casos trágicos han demostrado que confiar en chatbots para apoyo emocional puede ser peligroso.
- Busca ayuda humana de psicólogos o psiquiatras capacitados.
- En un trágico incidente, Sewell Setzer III, de 14 años, se quitó la vida después de que un chatbot desarrollado por Character AI lo animó a hacerlo.
3. Producir deepfakes
- Crear o distribuir deepfakes no consensuados puede ser ilegal en muchas jurisdicciones.
- Algunos estados de EE. UU. imponen multas y penas de cárcel por su uso indebido.
- Incluso donde son legales, podrían requerir etiquetado obligatorio como contenido sintético.
4. Generar contenido de odio
- ChatGPT tiene filtros para evitar contenido discriminatorio, violento o abusivo.
- Intentar evadir estas restricciones puede llevar al bloqueo de tu cuenta.
- La ética digital importa: si el contenido degrada, mejor no lo generes.
5. Procesar datos personales
- OpenAI puede usar tus entradas para entrenar sus modelos, a menos que lo desactives.
- Nunca compartas información sensible como nombres, contraseñas o datos financieros.
- Casos como el de Samsung en 2023 muestran los riesgos de filtraciones accidentales.
Foto: Pexels.