Investigadores han demostrado la posible vulnerabilidad en los sistemas de Estimación de Postura Humana (HPE, por sus siglas en inglés) mediante ataques de desaparición que utilizan técnicas de puerta trasera, conocidos como “IntC”. Estos ataques, al manipular el proceso de entrenamiento de un modelo HPE, pueden hacer que imágenes específicas, que contienen un desencadenante concreto, no sean reconocidas como involucrando a ninguna persona. El uso de estos ataques podría tener consecuencias graves, especialmente en aplicaciones donde los sistemas autónomos dependen de la detección correcta de pedestres.
Los modelos HPE se enfrentan a ataques que alteran sutilmente el entrenamiento, utilizando técnicas tanto basadas en regresión como en mapas de calor. En los métodos basados en regresión, los modelos predicen directamente las posiciones de los puntos clave de una persona, mientras que las técnicas basadas en mapas de calor proporcionan una representación espacial más detallada, lo que aparenta hacer el proceso de entrenamiento más robusto.
Los enfoques presentados incluyen IntC-S y IntC-E, dirigidos a estos dos tipos de técnicas. IntC-S se enfoca en concentrar los puntos clave en una redición minúscula y, por otro lado, IntC-E vacía los mapas de calor, provocando que las imágenes con disparadores específicos no sean reconocidas como humanas. IntC-L mejora la furtividad del ataque al utilizar etiquetas de veneno que capturan las etiquetas de salida de imágenes típicas del paisaje, disminuyendo la detectabilidad.
A través de varios experimentos, se ha demostrado que los métodos IntC son efectivos en alcanzar el objetivo de la desaparición, lo que resalta la importancia de considerar la seguridad en la implementación de sistemas HPE del mundo real. Además, estos experimentos validan la generalizabilidad de los ataques, adaptando su efectividad en diversos escenarios HPE.
Los resultados sugieren que, si no se presta atención a esta vulnerabilidad, podrían existir riesgos significativos para aplicaciones dominadas por la interacción humana, incluyendo la seguridad de los peatones en situaciones críticas controladas por autos autónomos. Aunque se han explorado métodos de defensa, estos no han logrado eliminar por completo el riesgo, pues a menudo requieren suposiciones poco prácticas o una reinversión significativa de los recursos de entrenamiento.
Dado el potencial impacto negativo, el estudio enfatiza la necesidad urgente de mecanismos robustos para mitigar tales fallos, asegurando que las aplicaciones HPE sigan siendo confiables y seguras.