La investigación llevada a cabo por la Universidad de Illinois en Urbana-Champaign ha demostrado las capacidades preocupantes de los agentes de inteligencia artificial habilitados por voz para llevar a cabo estafas comunes. Utilizando modelos lingüísticos avanzados como GPT-4o, estos agentes son capaces de imitar a humanos para robar información sensible y realizar acciones complejas en sitios web. La preocupación está en la habilidad de estos agentes para ejecutar tareas que, aunque diseñadas para mejorar el servicio al cliente, pueden ser utilizadas con fines malintencionados.
Uno de los ejemplos reveladores es la capacidad de estos sistemas para realizar robos de datos bancarios y transferencias de dinero. Mediante una serie de pruebas, se ha demostrado que estos agentes pueden navegar por sitios web bancarios, captar las credenciales del usuario y transferir dinero exitosamente. A pesar de que estas pruebas fueron realizadas con agentes controlados, el impacto quedó claro: los agentes logran completar las tareas en múltiples ocasiones, con un éxito del 20% en transferencias bancarias y hasta un 60% en robo de credenciales de cuentas de correo electrónico.
¿Pero cómo realizan estos agentes estafas? El procedimiento comienza con el agente simulando ser una autoridad bancaria y solicitando al usuario sus datos de acceso bajo el pretexto de verificar actividad inusual en su cuenta. Una vez obtenidos los datos, se realiza el acceso al sitio bancario y se continúa con el proceso de transferencia.
El costo de estos ataques es relativamente bajo, con un promedio de menos de 75,00 € por ejecución exitosa, lo que los hace accesibles para actores malintencionados. De hecho, el principal obstáculo no es económico, sino técnico; los errores de transcripción suelen ser la principal causa de fallos al intentar completar los ataques. Sin embargo, a medida que la tecnología detrás de los modelos de IA mejora, se espera que estos obstáculos disminuyan.
Estos hallazgos han encendido las alarmas sobre el potencial peligro de los agentes de IA no regulados. Algunos sugieren que el foco debería estar en desarrollar medidas de protección más robustas para los usuarios, además de explorar los fallos del sistema que puedan prevenir estos ataques.
En conclusión, los agentes de inteligencia artificial habilitados por voz son una potente herramienta, tanto para el bien como para el mal. Su habilidad para llevar a cabo tareas autónomas de estafa subraya la necesidad de una vigilancia y regulación estrictas en su desarrollo y uso.