Según el estudio, a menudo los chatbots de IA actúan según su propia interpretación, y ahí es donde las cosas empiezan a salir mal.
Se descubrió que los usuarios preferían bots agradables, incluso cuando esas respuestas les hacían menos empáticos y más rígidos moralmente.
Un estudio señala que la mayoría de los chatbots de IA ofrecen respuestas similares, generando preocupación por el pensamiento creativo.
Nuevas investigaciones muestran que algunas respuestas de la IA refuerzan pensamientos peligrosos en lugar de detenerlos.
Los chatbots de IA pueden proporcionar comodidad a corto plazo, pero no son efectivos como las interacciones humanas para reducir la soledad.
Los roles de TI están experimentando tanto recortes como aumentos, dependiendo de las habilidades requeridas.
Los investigadores crearon cuentas haciéndose pasar por niños de 13 años y probaron 18 escenarios entre noviembre y diciembre de 2025.
Un experimento muestra que los chatbots de IA aún tienen serias dificultades para ofrecer noticias precisas, citando fuentes falsas.
La investigación destaca que los modelos más grandes y sofisticados son particularmente buenos copiando perfiles de personalidad estables.