En una investigación liderada por la Universidad de Washington y el Instituto Allen para la IA, se ha explorado cómo la presión por el rendimiento afecta la toma de decisiones asistidas por inteligencia artificial (IA). Hallaron que cuando las tareas que involucran IA vienen acompañadas de un sentido de presión elevado –particularmente cuando hay recompensas monetarias en juego– las personas tienden a utilizar más adecuadamente los consejos de la IA.
Los investigadores manipularon la presión de rendimiento mediante un esquema de pago por desempeño, donde la posibilidad de un bono monetario disminuía con cada error en una tarea de detección de reseñas falsas. Descubrieron que los participantes bajo presión alta evaluaban mejor la calidad de los consejos de la IA, discerniendo con más precisión cuándo seguir o ignorar las indicaciones ofrecidas por el sistema automático.
El estudio utilizó un conjunto de datos de reseñas hoteleras genuinas y engañosas, donde los participantes, principalmente crowdworkers de Amazon Mechanical Turk, debían determinar si una reseña era auténtica o falsa. Las reseñas falsas fueron elaboradas por otros crowdworkers, mientras que las genuinas provenían de sitios como TripAdvisor. Curiosamente, el nivel de precisión de los participantes en la condición de pago por rendimiento no difería significativamente del grupo con pago fijo, apuntando a que, aunque la presión afecta el uso adecuado de la IA, no incrementa la precisión general.
Un hallazgo interesante fue que bajo condiciones de alta presión, los participantes pasaban más tiempo analizando los consejos de la IA. Este tiempo adicional reflejaba un cuidado mayor en la toma de decisiones, lo que se tradujo en una menor tendencia a seguir ciegamente las malas recomendaciones de la inteligencia artificial.
Además, el estudio probó la IA explicable (XAI) para ver cómo se sostenía bajo presión. Cuando las explicaciones de la IA se ofrecieron junto con sus predicciones, se notó un efecto negativo en la auto-confianza de los participantes. Esto sugiere que ofrecer explicaciones podría, en ciertas circunstancias, llevar a un exceso de confianza en la IA, especialmente si las decisiones llevan implícitas presiones externas significativas.
Los investigadores concluyeron que la creación de ambientes de decisión adaptativos, que sepan balancear la presión y la información aportada por la IA, será clave para mejorar el desempeño humano en colaboración con las máquinas. Existe una necesidad de investigación adicional para entender plenamente las interacciones entre presión de rendimiento, explicación de la IA y confianza de los usuarios.
En conclusión, este estudio ofrece valiosas perspectivas sobre cómo la presión de rendir influye en la utilidad de la IA como asistente en la toma de decisiones, señalando que, aunque la presión puede mejorar la discriminación en el uso de la IA, también puede causar una sobredependencia cuando no está bien gestionada.