Ante el auge de las plataformas digitales, la difusión de desinformación se ha convertido en un desafío significativo que requiere soluciones efectivas para verificar la veracidad de la información. Investigadores de las universidades de Cambridge y Manchester, entre otras instituciones, han desarrollado modelos de inteligencia artificial explicable (XAI) basados en transformadores para la verificación de hechos. Estos modelos no solo identifican afirmaciones engañosas, sino que también proporcionan explicaciones accesibles para los usuarios, contextualizando las decisiones tomadas por el sistema.
La innovación de esta investigación radica en la creación de métodos automatizados que evalúan la calidad de las explicaciones generadas, sobre dimensiones como (auto) contradictoriedad, alucinación, convincentemente y calidad general, alineándolos con juicios humanos. Los resultados experimentales muestran que los modelos generativos alcanzan un puntaje ROUGE-1 de 47.77, lo que ilustra un rendimiento superior en la generación de explicaciones, especialmente cuando se apoya en pruebas de alta calidad.
Un componente clave de este esfuerzo es el desarrollo de modelos de aprendizaje métrico que correlacionan moderadamente con los juicios humanos en dimensiones objetivas, logrando un coeficiente de correlación de Matthews (MCC) de aproximadamente 0.7. Este enfoque no solo profundiza el conocimiento teórico de XAI, sino que también tiene implicaciones prácticas al mejorar la transparencia, la fiabilidad y la confianza de los usuarios en los sistemas de verificación de hechos impulsados por IA.
Es relevante destacar la importancia de alinear las explicaciones generadas por IA con los juicios humanos para mejorar la interpretabilidad y confiabilidad de la tecnología. Las explicaciones humanas son necesarias para hacer los sistemas de IA más transparentes y fomentar la confianza del usuario al proporcionar una percepción clara del raciocinio detrás de las decisiones de veracidad.
En conclusión, la investigación marca un avance significativo en la verificación de hechos automatizada al centrarse en la explicabilidad y la alineación con interpretaciones humanamente comprensibles. Aunque la generación de explicaciones es efectiva con evidencias adecuadas, sigue siendo un desafío alcanzarlo cuando se enfrentan a datos ruidosos, lo que resalta la necesidad continua de mejorar estos sistemas, posiblemente a través de la integración de entradas multimodales o una mayor supervisión humana.