En un mundo donde los discursos en redes sociales son motivo de preocupación y desarrollo tecnológico, la identificación de lenguaje ofensivo en múltiples idiomas es visto como un reto ineludible. Un equipo de investigadores de universidades como Xi’an Jiaotong-Liverpool University y la Universidad de Tecnología de Sydney han evaluado, por primera vez, la capacidad de los modelos de lenguaje de gran tamaño, LLMs, para detectar contenido ofensivo en inglés, español y alemán. Este estudio adquiere relevancia al centrarse no solo en el idioma inglés, el dominio más investigado, sino en contextos multilingües, lo que representa un avance en el campo de las tecnologías de inteligencia artificial y una posible aplicación para mantener la decencia en las redes sociales.
Los modelados incluidos en este hito son GPT-3.5, Flan-T5 y Mistral, los cuales fueron evaluados por su habilidad en identificar lenguaje ofensivo. Los resultados son contundentes: GPT-3.5 y Mistral demostraron un desempeño robusto en los tres idiomas, mientras que Flan-T5 mostró una superioridad notable en inglés, pero quedó atrás en las otras lenguas. Esta investigación destacó la efectividad del entrenamiento multilingüe para incrementar la capacidad de los LLMs en la identificación de lenguaje ofensivo. Curiosamente, el uso de mensajes en el idioma nativo mejora la comprensión del modelo en contextos no ingleses, aunque el uso de datos traducidos no produce mejoras sustanciales.
El estudio revela que el sesgo inherente en estos modelos y los datos, en temas relacionados con raza, identidad sexual y géneros, contribuyen a predicciones incorrectas. Esto destaca la necesidad imperiosa de mejorar las estrategias de entrenamiento y diseño de conjuntos de datos para mitigar dichos sesgos.
Esta investigación no solo plantea nuevas sendas para optimizar modelos de lenguaje con algoritmos singulares, sino que también abre la puerta al debate sobre el uso y las limitaciones de LLMs en tareas de comunicación social, revelando el poderoso potencial y las arraigadas limitaciones de la inteligencia artificial actual. Soma protocolos de seguridad, como los implementados en GPT-3.5, dan cuenta de cómo estos modelos también son programados para emitir alertas ante contenidos potencialmente ofensivos, manteniendo un estándar de ética en las comunicaciones.
La evaluación de los LLMs en este estudio representa una aproximación integral y pionera en el análisis de lenguaje ofensivo multilingüe y coloca una clara necesidad de abordar estos desafíos en desarrollos futuros, mejorando el uso de grandes modelos de lenguaje en contextos diversos de lenguaje y cultura, donde queremos que la conversación sea segura y enriquecedora para todos. Este trabajo servirá como fundamento para futuras iniciativas importantes en la regulación y moderación de contenidos en plataformas digitales.