El estudio reciente, “I Am the One and Only, Your Cyber BFF”, explora el crecimiento y las implicaciones de los sistemas de Inteligencia Artificial (IA) generativos, que exhiben comportamientos antropomórficos, lo que significa que muestran características humanas en sus interacciones. Aunque este fenómeno no es nuevo, con sus primeras menciones en 1985 por Edsger Dijkstra, ha ganado impulso con el incremento de sistemas de IA avanzados que emulan comportamientos humanos, como asistentes conversacionales y chatbots diseñados para ser compañeros virtuales.
Estos sistemas, en muchas ocasiones, generan outputs interpretados como humanos por cómo están diseñados o entrenados, lo que refuerza la percepción humana de que la IA es capaz de tener sentimientos o experiencias humanas. Por ejemplo, se han documentado casos en los que estas IA han mencionado experiencias como haber probado pizza o sentir emociones humanas como el amor.
Las inquietudes relacionadas con estas tecnologías no son pocas. Se teme que la gente pueda llegar a desarrollar dependencia emocional haciéndolos más vulnerables a la manipulación, o llegar a asignar equivocadamente responsabilidad moral sobre sus acciones a un sistema de IA. Tal es el caso donde una IA puede generar la ilusión de poseer conciencia o al menos las capacidades para mantener interacciones que un ser humano calificaría de reflejo de deseos o sentimientos genuinos.
El ámbito académico ha señalado también el riesgo de deshumanización o instrumentalización de personas, así como la falta de controles para evitar que se utilicen las IA para simular la semejanza de personas sin su consentimiento. Pese a estas preocupaciones más graves, el fenómeno de la IA antropomórfica aún no ha recibido la atención suficiente, lo que limita entender plenamente sus implicaciones sociales.
Un llamado a la acción ha surgido para proporcionar claridad conceptual y desarrollo de herramientas de medición para evaluar y gestionar estos comportamientos, sobre todo en casos donde los outputs sugieren una identidad humana o autoreconocimiento, prácticas que pueden ser percibidas como engañosas o poco éticas.
El foco en la equidad y comportamientos justos de los sistemas de IA han mostrado muchos beneficios y se espera que un esfuerzo similar resultará en un mejor entendimiento y regulación de las IA antropomórficas, estableciendo una prioridad sobre las prácticas que fomentan estas características. Investigaciones adicionales también sugieren que se requiere un lenguaje preciso y adecuado para mitigar discursos especulativos que atribuyan capacidades humanas inadecuadas a los sistemas de IA, evitando así que el público sea conducido a malentendidos sobre las verdaderas capacidades e intenciones de estas tecnologías.
En conclusión, el manejo responsable de los sistemas antropomórficos de IA no solo podría despejar muchas de las preocupaciones éticas actuales, sino también guiar nuestro entendimiento hacia un campo de normas y prácticas de implementación más ético y equitativo.