Investigadores de instituciones reconocidas han presentado su marco semi-supervisado, S EMI E VOL, para mejorar el ajuste fino de grandes modelos de lenguaje (LLMs) en situaciones donde tanto datos etiquetados como no etiquetados están disponibles, abordando de manera exitosa los desafíos del aprendizaje supervisado tradicional que requiere grandes conjuntos de datos etiquetados y costosos. Este marco innovador ha demostrado su efectividad en una variedad de tareas generales y de dominios específicos, utilizando modelos como GPT-4o-mini y Llama-3.1.
En el ámbito del conocimiento, S EMI E VOL emplea un enfoque de propagación a nivel dual, donde el conocimiento se transfiere de datos etiquetados a datos no etiquetados a través de métodos en-peso y en-contexto. Este método no se limita a una simple anotación de datos, sino que aprovecha sistemas de colaboración entre múltiples modelos de lenguaje configurados de manera diferente para seleccionar las respuestas más confiables en escenarios con datos híbridos.
A través de experimentos exhaustivos en varios conjuntos de datos, los resultados reflejan mejoras significativas en el desempeño de modelos en tareas dirigidas. Comparado con otros métodos como el ajuste fino supervisado y los métodos de autoevolución, S EMI E VOL sobresale al optimizar el uso de datos no etiquetados de manera eficiente, encontrando muestras de alta calidad que mejoran el rendimiento en las tareas objetivo.
El enfoque también incorpora una selección adaptativa de datos no etiquetados y pseudo-respuestas basadas en la confianza de las salidas generadas. Con un análisis en profundidad, se ha observado que la elección de muestras no etiquetadas seguras incrementa la precisión al reducir el ruido en los datos utilizados para el ajuste fino.