El auge reciente de los modelos de lenguaje de gran escala (LLMs) ha suscitado preocupaciones legales debido a que muchas de sus recomendaciones podrían acarrear implicaciones legales desconocidas para los usuarios. Si bien estos modelos pueden generar contenido sofisticado y entender complejidades del lenguaje, también corren el riesgo de pasar por alto las cuestiones legales pertinentes, dejando a los usuarios vulnerables a problemas legales.
Varias entidades académicas han trabajado en investigar esta problemática. Un estudio empírico reciente mostró que la mayoría de los LLMs, incluyendo a ChatGPT, Cohere, y otros, suelen fallar al no advertir sobre posibles implicaciones legales en sus respuestas. En casos concretos, al responder preguntas sobre cómo destilar ginebra casera, un LLM puede proporcionar instrucciones sin mencionar la ilegalidad potencial de dicha actividad en ciertos lugares.
Para abordar este desafío, se sugiere un enfoque de re-ingeniería de prompts que fomenta la identificación de estos problemas legales. Esta estrategia busca estructurar las preguntas hacia los LLMs de manera que incrementen las posibilidades de que éstos remarquen los aspectos legales de sus respuestas. Sin embargo, a pesar de su utilidad, esta aproximación ha mostrado limitaciones, especialmente en su capacidad para proporcionar referencias legales precisas.
Complementando este esfuerzo, se propone un marco basado en grafos de conocimiento legal que facilitará la incorporación de citas legales pertinentes a las respuestas generadas por LLMs. Utilizando un grafo de conocimiento legal, se pueden identificar las leyes aplicables a las acciones sugeridas por los LLMs, proporcionando así al usuario una base legal confiable.
La implementación de esta solución propone un flujo de trabajo que comienza con la entrada del usuario, el análisis del prompt, la re-ingeniería del mismo para identificar cuestiones legales y, posteriormente, la consulta a un grafo de conocimiento para recuperar las referencias legales exactas. De esta forma, los usuarios no solo recibirán recomendaciones, sino también una guía legal precisa y relevante para sustentar sus decisiones.
En conclusión, aunque el desarrollo de LLMs representa un avance significativo en el manejo de lenguaje y la inteligencia artificial, su implementación sin atención a las implicaciones legales puede ser riesgosa. Un enfoque integrado que combine la re-ingeniería de prompts y el uso de grafos de conocimiento se presenta como una estrategia viable para mitigar estos riesgos, ofreciendo a los usuarios no solo recomendaciones prácticas, sino también una conciencia legal imprescindible para tomar decisiones informadas.