En un reciente trabajo llevado a cabo por investigadores del Instituto Gwangju de Ciencia y Tecnología, se han abordado las limitaciones de los modelos actuales de inteligencia artificial (IA) en cuanto al razonamiento denominado como “Sistema-2”. Este tipo de razonamiento, crucial para alcanzar un nivel de inteligencia artificial general (AGI), se caracteriza por la capacidad de pensamiento abstracto, deducción lógica, y adaptación a situaciones novedosas y complejas. La investigación destaca que, a pesar de los avances en aplicaciones específicas, los modelos actuales a menudo no logran generalizar eficazmente más allá de los datos con los que fueron entrenados.
El artículo sugiere que uno de los obstáculos principales es la dependencia excesiva de los modelos en los datos y optimizaciones específicas de tareas. Aunque modelos como las redes neuronales y los modelos basados en el aprendizaje por refuerzo han logrado niveles de desempeño cercanos al humano en algunas tareas, su falta de flexibilidad y adaptabilidad a nuevos entornos es manifiesta. Se subraya la necesidad de avanzar más allá de estas limitaciones metodológicas e identificar estrategias que promuevan tanto la generalidad como la adaptación en los modelos de IA, fundamentales para el razonamiento “Sistema-2”.
Un aspecto destacado es el uso del Corpus de Abstracción y Razonamiento (ARC) como un banco de pruebas diseñado específicamente para evaluar la capacidad de los modelos de IA de razonar y generalizar de manera abstracta en situaciones no familiares, sin depender de extensos conjuntos de entrenamiento. La dificultad del ARC radica en la necesidad de que los sistemas inferan reglas abstractas subyacentes a partir de datos limitados, enfatizando habilidades como la deducción lógica y el razonamiento adaptativo.
Para enfrentar estos desafíos, los investigadores proponen cuatro direcciones clave de investigación que podrían cerrar las brechas existentes: aprender las intenciones humanas mediante secuencias de acciones, combinar modelos simbólicos y neuronales, emplear el meta-aprendizaje para ambientes desconocidos, y utilizar el aprendizaje por refuerzo para mejorar la capacidad de razonar en múltiples pasos. Estas estrategias están orientadas a dotar a los modelos de la capacidad de generalizar conocimientos aprendidos a nuevos contextos y de responder de manera flexible ante cambios en los escenarios.
La conclusión del estudio señala que estas direcciones no solo facilitarían el razonamiento abstracto de los modelos de IA, sino que también crearían un puente hacia un razonamiento más similar al humano, esencial para el desarrollo de una inteligencia artificial verdaderamente general. En un panorama donde la IA sigue expandiéndose, la capacidad de generalizar y adaptarse se perfila como el próximo gran hito para la tecnología.