Solo noticias

y ya

viernes 11 de de 2024

IA y humanos: Choques y Alineaciones en Juicios Morales

Investigadores de la Universidad de Ginebra, Google DeepMind, y la École Normale Supérieure han realizado un estudio revelador sobre el alineamiento moral entre humanos y modelos de lenguaje de gran magnitud (LLM), como GPT-3.5, centrado en cómo ambos justifican y deciden en situaciones moralmente complejas. En un corpus evaluado, se identificaron discrepancias notables en las valoraciones morales de humanos y LLMs, destacando que estos últimos mostraban mayor sensibilidad hacia los dilemas formulados de manera impersonal, donde no asumían responsabilidad personal. Por otro lado, los humanos tendían a preferir justificaciones de las inteligencias artificiales (IA) en escenarios morales personales, aunque un sesgo contra las máquinas se hizo evidente cuando los evaluadores sabían que estaban evaluando respuestas generadas por IA.

El análisis incluyó 230 participantes que evaluaron respuestas de humanos y del modelo GPT-3.5 en 60 escenarios éticos. Aunque las IA recibieron un mayor respaldo en ciertos dilemas, los participantes mostraron una inclinación desfavorable hacia los juicios que percibían como generados por máquinas, a pesar de preferir el raciocinio más utilitarista y detallado de estas en situaciones de alta tensión moral.

Los investigadores detectaron que las IA tienden a reestructurar las preguntas e incluyen términos repetitivos y formales, elementos lingüísticos que los humanos identificaron como indicativos de respuestas generadas por máquinas. A pesar de los intentos por “humanizar” las respuestas de las IA para minimizar las diferencias lingüísticas, los evaluadores seguían manteniendo una capacidad de detección ligeramente superior al azar.

Un análisis más detallado evidenció que las respuestas asociadas con un razonamiento estructurado y deliberado propiciaban la identificación de textos generados por IA. En contraste, el uso más frecuente de términos como “apropiado” y la estructuración lógica advertían a los participantes del origen maquinal del juicio, aunque esto no afectaba sustancialmente su acuerdo con las evaluaciones emitidas.

En conclusión, el estudio subraya la complejidad que rodea la percepción y alineación moral entre humanos y LLMs, insinuando una tensión subyacente entre la resistencia a aceptar máquinas como entidades de juicio moral y una predisposición a valorar sus argumentos cuando las situaciones exigen una lógica deliberativa.

Finalmente, se plantea la posibilidad de que los LLMs actúen como asistentes en la toma de decisiones humanas en el futuro, aunque los prejuicios subjetivos continúan siendo una barrera significativa para la integración de estas tecnologías en el ámbito moral.