FOLOU

Científicos encuentran sesgo social en chatbots de IA

Un nuevo estudio revela que algunos chatbots pueden mostrar preferencias de grupo, favoreciendo a ciertos grupos (grupos de pertenencia) y mostrándose más fríos hacia otros (grupos externos). Este patrón es un indicador clave del sesgo social en los chatbots de inteligencia artificial (IA).

Los investigadores examinaron varios modelos de lenguaje grandes, incluyendo GPT-4.1 y DeepSeek-3.1, y encontraron que el efecto puede variar según cómo se formule la solicitud. El estudio también propone una solución, ION (Neutralización de Grupos de Pertenencia y Externos), que reduce las diferencias de sentimiento entre estos grupos.

Este hallazgo es importante porque afecta a herramientas que resumen argumentos, reescriben quejas o moderan publicaciones. Pequeños cambios en el tono, la culpa o el escepticismo pueden alterar lo que los lectores entienden, incluso cuando el texto sigue siendo fluido. Aunque no hay una fecha clara para que los proveedores de modelos adopten ION, los desarrolladores y usuarios deben estar atentos a este sesgo.

TE PUEDE INTERESAR: La codificación con IA avanza rápido, ¿cómo afecta tu carrera?

Qué debes saber

Especificaciones técnicas

Contenido generado con IA y editado por el equipo editorial.

Foto: Archivo FOLOU.

Salir de la versión móvil