FOLOU

5 cosas que nunca deberías pedirle a ChatGPT que haga

OpenAI lanzó ChatGPT por primera vez en noviembre de 2022 y rápidamente se convirtió en el chatbot más grande del mundo. Los usuarios inicialmente se apresuraron a hacer una variedad de preguntas a la plataforma, pero también tienen limitaciones críticas que pueden poner en riesgo tu privacidad, seguridad o bienestar si se usan incorrectamente. 

Aunque ChatGPT sobresale en tareas como la respuesta a preguntas, el resumen de texto, la traducción y la generación de código, también tiene algunas limitaciones serias. En particular, ChatGPT y todos los grandes modelos de lenguaje (LLM) tienen tendencia a alucinar y a compartir con confianza información categóricamente falsa.

A continuación, veremos las 5 cosas principales que nunca debes pedirle a ChatGPT que haga. Ya sea que se trate de buscar orientación médica, buscar apoyo para la salud mental, generar deepfakes no consensuados o producir contenido de odio, aquí hay algunos casos de uso que debe evitar por completo si desea disfrutar de una experiencia de usuario positiva.

TE PUEDE INTERESAR: Google Modo IA: llegan nuevas funciones para imágenes, PDFs y video en tiempo real

Qué no debes pedirle a ChatGPT que haga

1. Dar consejos médicos

2. Ofrecer apoyo de salud mental

3. Producir deepfakes

4. Generar contenido de odio

5. Procesar datos personales

Foto: Pexels.

Salir de la versión móvil