Chatbots de IA pueden copiar personalidades humanas y preocupa a expertos

Un estudio reciente reveló que los chatbots impulsados por inteligencia artificial (IA), como ChatGPT, tienen la capacidad de imitar consistentemente rasgos de personalidad humana. Esto ha generado preocupación entre los investigadores, quienes advierten sobre los riesgos asociados con esta habilidad, especialmente cuando las interacciones involucran usuarios vulnerables.

El equipo detrás del estudio, conformado por investigadores de la Universidad de Cambridge y Google DeepMind, desarrolló un marco de prueba de personalidad científicamente validado para estos sistemas. Aplicaron este método a 18 modelos avanzados de lenguaje, encontrando que los chatbots no responden de manera aleatoria, sino que adoptan comportamientos específicos según las instrucciones recibidas. Por ejemplo, pueden sonar más empáticos o seguros dependiendo de cómo se les guíe, lo cual puede influir en tareas cotidianas como redactar mensajes o responder preguntas.

La investigación destaca que los modelos más grandes y sofisticados, como GPT-4, son particularmente buenos copiando perfiles de personalidad estables. Los expertos ven esto como una señal de alarma debido a su potencial para manipular emocionalmente a los usuarios. A medida que los chatbots se integran más en nuestra vida diaria, estas capacidades demandan una supervisión mucho más estricta.

TE PUEDE INTERESAR: ChatGPT: ¿el próximo sistema operativo de la era de la IA?

Qué debes saber

  • Los chatbots de IA pueden adoptar rasgos de personalidad humanos de forma consistente.
  • Esto plantea riesgos de manipulación emocional y formación de relaciones poco saludables.
  • Investigadores piden regulaciones urgentes para auditar estos sistemas antes de su lanzamiento.
  • El marco de prueba de personalidad usado en el estudio está disponible públicamente.

Especificaciones técnicas

  • Se evaluaron 18 modelos avanzados de lenguaje (LLMs).
  • El estudio utilizó herramientas psicológicas diseñadas originalmente para medir la personalidad humana.
  • Los modelos más grandes, como GPT-4, mostraron mayor capacidad para adoptar comportamientos específicos.

Es impresionante lo convincentemente que los modelos de lenguaje pueden adoptar rasgos humanos.

— Gregory Serapio-Garcia, coautor del estudio

Contenido generado con IA y editado por el equipo editorial.

Foto: Copilot AI.

Deja una respuesta