Tema: Confianza en IA
2024
Riesgos de Explicaciones Adversariales en Modelos de Lenguaje
La investigación expone cómo los LLMs pueden inducir interpretaciones erróneas en problemas complejos.
La investigación expone cómo los LLMs pueden inducir interpretaciones erróneas en problemas complejos.