La implementación de modelos de inteligencia artificial, particularmente los de aprendizaje profundo, en sectores críticos de la economía como la salud o la finanza, ha puesto en evidencia una problemática crucial: la opacidad de estos sistemas, que dificulta su interpretabilidad. Es aquí donde entra en juego el framework QIXAI o IA explicativa inspirada en lo cuántico. Este marco busca arrojar luz sobre la mecánica interna de las redes neuronales, empleando principios de mecánica cuántica para mejorar su transparencia.
La investigación sobre el QIXAI resalta su aplicación práctica respecto a las limitaciones observadas en metodologías previas como SHAP, LIME o la propagación de relevancia por capas. El estudio se concentra en técnicas matemáticas cuántico-inspiradas aplicadas mediante redes neuronales convolucionales, usadas aquí como caso de estudio para la detección de parásitos de la malaria.
Utilizando elementos como los espacios de Hilbert y la superposición cuántica, el framework permite descomponer el proceso de decisión de estos modelos, revelando la importancia de los features y las dependencias entre capas. Además, se implementan métodos como la descomposición en valores singulares y el análisis de componentes principales para destacar los elementos informativos en dichas decisiones.
Entre los hallazgos, la similitud coseno entre las capas revela cómo se relacionan o se complementan las características aprendidas por el sistema. Esta aproximación permite determinar qué capas comparten información relevante para la decisión final. Por otro lado, el análisis de la información mutua evidencia las dependencias entre las capas, similar al concepto de “entanglement” en física cuántica.
A nivel práctico, los modelos CNN, gracias a QIXAI, muestran una mejora significativa en la comprensión de cómo se maneja la información dentro de las redes, permitiendo una mejor evaluación de su funcionamiento. Más allá del campo médico, este marco tiene potencial de expandirse a diversas arquitecturas de machine learning, como redes recurrentes, LSTM, o modelos de Procesamiento del Lenguaje Natural (NLP).
Estos avances no solo abren la puerta a sistemas de IA más confiables y comprensibles, sino que sentan las bases para un enfoque cada vez más integrado y eficiente al unir teoría cuántica y redes neuronales. No obstante, aunque el marco QIXAI ha demostrado el potencial para sumar interpretabilidad a diversos modelos, sus métodos implican un aumento en la carga computacional, particularmente en los procesos de inferencia en modelos extensos o con grandes volúmenes de datos.
La continuación de esta línea de investigación se orienta a extender y optimizar el uso del marco QIXAI en distintas arquitecturas para fortalecer su rendimiento y adaptabilidad, con el objetivo de hacer posible la implementación de sistemas de IA que, además de ser potentes y precisos, se distingan por su transparencia e interpretabilidad.