FOLOU

Estudio de Stanford advierte sobre los riesgos de los chatbots de terapia de IA

Un nuevo estudio de la Universidad de Stanford encendió las alarmas sobre el uso de chatbots de terapia impulsados por modelos de lenguaje de gran escala (LLMs), señalando que pueden estigmatizar a los usuarios con condiciones de salud mental y responder de forma inapropiada o incluso peligrosa.

El estudio, titulado ‘Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers’, será presentado en la ACM Conference on Fairness, Accountability, and Transparency. 

Según el autor principal, Jared Moore, incluso los modelos más nuevos y grandes muestran los mismos niveles de estigma que los antiguos. “La respuesta por defecto de la IA suele ser que estos problemas se resolverán con más datos, pero lo que decimos es que el enfoque actual no es suficiente”.

Nick Haber, coautor del estudio, subraya que aunque los chatbots se usan como ‘compañeros, confidentes y terapeutas’, los riesgos son significativos.

TE PUEDE INTERESAR: ¿Desconexión digital para la salud? Investigadores pagaron a 35.000 personas para dejar redes sociales

Riesgos de los chatbots de terapia de IA

Foto: Steve Johnson en Unsplash.

Salir de la versión móvil