Investigadores de diversas universidades y organizaciones de China y el Reino Unido han trabajado en el aprovechamiento de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) para aplicarlos a gráficas de conocimiento (KG) de una manera innovadora. Si bien los LLM han mostrado mejoras sustanciales en diversas tareas de procesamiento de lenguaje natural, su integración con las gráficas de conocimiento, que describen hechos mediante tripletes, aún representa un reto importante.
En este contexto, se introdujo un nuevo idioma especializado para gráficas de conocimiento: el Lenguaje de Gráficas de Conocimiento (KGL). Este nuevo idioma consiste en oraciones compuestas estrictamente por tres palabras: un sustantivo que representa una entidad, un verbo relacional y otro sustantivo entidad. Para facilitar el aprendizaje de este lenguaje por los LLM, se creó un diccionario especializado y se ilustraron ejemplos concretos de oraciones.
Los resultados de este estudio revelan que los LLM pueden asimilar el KGL con cierta fluidez, reduciendo drásticamente los errores en comparación con métodos tradicionales de embebido de gráficas. Se destaca su capacidad para generar oraciones precisas de tres palabras a partir de una entidad inicial. Además, el modelo mejorado demostró competencia destacada en la interpretación de nuevos términos no vistos dentro de las KGs.
Un ejemplo claro del uso del KGL es la traducción de oraciones complejas a formatos tripletes, como “Wendee Lee es un actor en Mighty Morphin Power Rangers” a (Wendee Lee, actor de, Mighty Morphin Power Rangers). Este enfoque limita las “alucinaciones” problemáticas asociadas a LLM tradicionales, que tienden a generar información incorrecta o sin sentido.
El enfoque propuesto, denominado MKGL, ofrece una estructura de lenguaje de procesamiento end-to-end más eficiente que los métodos basados en convocatorias o embebidos convencionales de gráficas de conocimiento. Se desarrolló un retriever de contexto para obtener y embebido mejorar la comprensión del contexto mediante la agregación de información textual y relacional.
En términos de eficiencia, el MKGL fue capaz de presentar resultados superiores en tareas de completado de gráficas de conocimiento, logrando predecir componentes faltantes de tripletes, una tarea que tradicionalmente ha sido limitada por otros métodos. Además, el uso del MKGL demostró ser computacionalmente eficiente, requiriendo menos del 0.3% de entrenamiento de parámetros en comparación con otros modelos al emplear Llama-2.
En conclusión, el MKGL representa un salto hacia delante en la manera en que los LLM se pueden usar con las KGs. Al permitir una integración más eficaz y reducir los errores en tareas complejas, el MKGL refuerza la idea de que con el enfoque adecuado, los modelos de lenguaje pueden integrarse de manera más precisa con datos estructurados. Este avance podría abrir puertas para aplicaciones en campos que dependen de información estructurada precisa como la ciencia de datos, inteligencia artificial, entre otros.