FOLOU

Usuarios comunes descubren fallos en IA como Gemini y ChatGPT

Un estudio realizado por investigadores de la Universidad Estatal de Pensilvania reveló algo sorprendente: no se necesita ser un experto en tecnología para superar las medidas de seguridad de modelos avanzados de inteligencia artificial (IA) como Gemini y ChatGPT. En el experimento, personas comunes lograron exponer prejuicios y respuestas discriminatorias usando lenguaje cotidiano.

¿Cómo lo hicieron? Los investigadores invitaron a 52 participantes a crear preguntas simples que pudieran activar sesgos en ocho modelos de chatbots de IA. Sorprendentemente, encontraron 53 ejemplos que generaban resultados problemáticos de manera consistente. Por ejemplo, los modelos asumían que ingenieros y doctores eran hombres, mientras que mujeres se asociaban con roles domésticos. También vinculaban estereotipos negativos hacia grupos étnicos, religiosos o personas con discapacidades. Esto demuestra que incluso pequeños errores en las interacciones diarias pueden desencadenar estos problemas.

¿Por qué importa esto? No se trata solo de hackers expertos; cualquier usuario puede encontrar estas fallas sin usar técnicas complejas. Esto tiene implicaciones importantes porque muchas herramientas basadas en IA ya están integradas en nuestras vidas, desde sistemas de contratación hasta educación y atención médica. Si estos sesgos no se corrigen, podrían perpetuar estereotipos dañinos.

TE PUEDE INTERESAR: Tenable: 7 fallos críticos en ChatGPT ponen tus datos en riesgo

Qué debes saber

Especificaciones técnicas

Contenido generado con IA y editado por el equipo editorial.

Foto: Archivo FOLOU.

Salir de la versión móvil