Un reciente estudio de Apple sacudió el mundo de la Inteligencia Artificial (IA), revelando fallos importantes en las capacidades de razonamiento lógico de los modelos más avanzados de IA en el mercado.
Según la investigación de Apple, incluso los modelos más potentes, como los desarrollados por OpenAI y Meta, tienen serios problemas. Estas complicaciones se dan, sobre todo, a la hora de resolver tareas matemáticas y de lógica, cuando se introducen ligeros cambios en la formulación de las preguntas.
El equipo, liderado por Iman Mirzadeh, se propuso probar los límites de estos sistemas. Utilizaron un nuevo punto de referencia llamado GSM-Symbolic para ver qué tan bien se desempeñan los modelos de lenguaje grandes (LLM) cuando se enfrentan a matemáticas y lógica complicadas.
TE PUEDE INTERESAR: Microsoft quiere hacer que su IA sea más útil para usuarios ciegos y con baja visión
La debilidad de la IA, según el estudio de Apple
- El estudio deja claro que los sistemas actuales de inteligencia artificial, en su núcleo, no razonan de manera lógica como lo haría un ser humano.
- La investigación revela cómo algo tan simple como cambiar un nombre en un problema puede llevar a una respuesta totalmente diferente.
- En palabras de los investigadores, ‘cambiar un nombre puede alterar los resultados en un ~10%’.
- Este margen de error podría ser devastador en aplicaciones del mundo real que requieren precisión, como en el ámbito médico o financiero.
- Apple señala que este tipo de comportamiento erróneo de la IA plantea serias dudas sobre su utilidad en escenarios donde la lógica es clave.
- Las pruebas se realizaron con varios de los modelos más utilizados del mercado, como Llama de Meta o GPT-4o de OpenAI, y todos presentaron el mismo tipo de errores.
- Los fallos de razonamiento descubiertos en los modelos actuales plantean la cuestión de si estamos realmente listos para confiar en la IA en áreas que requieren un pensamiento lógico profundo.
La solución de Apple
- Para solucionar este problema, Apple sugiere que la IA necesita ir más allá de las redes neuronales convencionales y adoptar un enfoque híbrido llamado ‘IA neurosimbólica’.
- Este método combina el poder de las redes neuronales, que son excelentes para reconocer patrones, con el razonamiento basado en símbolos, que es más adecuado para las tareas de lógica y resolución de problemas.
- Con esta combinación, los modelos podrían abordar de forma más precisa problemas complejos y ofrecer respuestas consistentes y fiables.
Foto: Freepik