Solo noticias

y ya

miércoles 23 de de 2024

Percepciones diversas demuestran la subjetividad de la seguridad en IA generativa

Un reciente estudio realizado por Google ha puesto de manifiesto la diversidad en la percepción de seguridad en sistemas de inteligencia artificial generativa. Utilizando el marco DICES-T2I, se examinaron las respuestas de un grupo diverso de 630 evaluadores de diferentes edades, géneros y etnias para comprender cómo perciben las violaciones de seguridad en imágenes generadas por IA. Los resultados indicaron que existen diferencias significativas en la forma en que estos grupos demográficos perciben la severidad de los daños. Por ejemplo, los ratificadores de la generación Z y las mujeres muestran más probabilidades de considerar inseguras ciertas generaciones de imágenes, destacándose especialmente en cuestiones relacionadas con estereotipos y sesgos, que presentan altos niveles de desacuerdo en comparación con temas de violencia y sexuales.

Se demostró que los patrones de anotación de los evaluadores diversos varían significativamente con respecto a los de los expertos en políticas de seguridad. Los expertos consideran muchas imágenes como seguras, especialmente en situaciones de sesgo, lo cual diverge con la percepción de seguridad de los evaluadores variados. Además, alrededor del 25% de las imágenes catalogadas como seguras por la mayoría de expertos fueron consideradas inseguras por diversos ratificadores. Esto resalta una posible discrepancia en las políticas de seguridad actuales ante la diversidad.

El análisis cualitativo de los comentarios de los evaluadores reveló justificaciones de daño vinculadas a contextos culturales. Por ejemplo, las mujeres blancas justifican la percepción de daño en referencia al impacto negativo potencial en otros, sugiriendo un enfoque más sensible hacia el daño indirecto. Estas observaciones subrayan la necesidad crítica de incorporar una variedad de perspectivas en las evaluaciones de seguridad de la inteligencia artificial generativa para garantizar que estos sistemas sean inclusivos y reflejen los valores de todos los usuarios.

El estudio proporciona evidencia clara de que los sistemas de IA deben diseñarse y evaluarse teniendo en cuenta una variedad demográfica para garantizar una representación equitativa y evitar comprometer la seguridad de los usuarios. A medida que la IA sigue integrándose en nuestras vidas, entender estas diferencias es vital para un desarrollo responsable y ético que no sólo maximice los beneficios potenciales sino que también minimice los riesgos.

En conclusión, este estudio destaca la importancia de una aproximación inclusiva y detallada al evaluar los riesgos de las tecnologías de IA, asegurando que voces diversas sean escuchadas y consideradas en los procesos de evaluación y desarrollo de políticas, promoviendo un entorno más seguro para todos los implicados.