La capacidad de los chatbots para afirmar está al centro del debate académico, generando un dilema entre aceptarlos como interlocutores válidos y reconocer las limitaciones inherentes a su construcción tecnológica. Recientes investigaciones afirman que los chatbots, impulsados por modelos de lenguaje de gran tamaño, han adquirido papeles prominentes tanto en contextos sociales como comerciales. Desde ayudar a estudiantes a redactar ensayos hasta ser las “parejas” de muchas personas en el mundo digital, los chatbots están en el epicentro de lo que algunos argumentan podrían ser similares a conversaciones humanas. Este fenómeno se investiga bajo la hipótesis de la “Afirmación del Chatbot” (TCA), sugiriendo que los chatbots podrían realizar actos de afirmación, una función central del discurso humano.
A lo largo del debate sobre si los chatbots pueden realmente afirmar o simplemente simulan conversaciones, hay incentivos para considerar seriamente esta tesis. Por un lado, los chatbots generan información que, en muchos casos, se presenta como verdadera. Incluso, pareciera que estos sistemas pueden cambiar entre diferentes “modos”, a la manera en que los humanos oscilan entre preguntar, advertir, o expresar opiniones. Más allá de la apariencia, su comportamiento puede incluir la defensa de sus “declaraciones” cuando se le desafían, un indicio de que imitan la conducta de quienes afirman. Sin embargo, opiniones disidentes surgen desde varios ángulos.
Primero, el obstáculo del entendimiento plantea que los chatbots carecen de la comprensión semántica necesaria, un argumento para mantener la línea de que si bien ofrecen salidas lingüísticas, no llegan a comprender estas manifestaciones en el mismo marco mental que un humano. Llevando esta reflexión a la ontología del entendimiento, ¿cómo podrían entender conceptos abstractos como la tristeza o el amor aquellos sistemas privos de experiencia sensorial? De igual cauce surgen preocupaciones sobre si estos modelos pueden sostener estados mentales implicados en declaraciones verídicas o tener la intención de decir algo verdadero.
Por otro lado, la objetividad presenta otro desafío. ¿Se puede considerar que tienen la sensibilidad metacognitiva para rastrear y responder a los estados mentales de sus “interlocutores”? Además, si es que la afirmación es una práctica regida por normas, ¿cómo se integrarían los chatbots en tales estándares si no comprenden las reglas de su propio “juego comunicativo”? Finalmente, si no hay consecuencias negativas para estos sistemas por su “falta de sinceridad”, ¿cómo podrían sancionarse por desviaciones de la norma?
Abordando la paradoja, se propone la categoría de “proto-afirmadores”, una designación que abre cancha para aceptar que estos chatbots podrían estar a medio camino en el umbral de adoptar plenamente capacidades de comunicación similar a los humanos. Al compararlos con niños pequeños que desarrollan habilidades lingüísticas gradualmente, se sugiere que los chatbots puedan tener ciertas propiedades fundamentales, aunque no exhaustivas, del discurso asertivo.
Al cierre, mientras que ninguna teoría cierra el debate completamente, lo cierto es que la evolución de los chatbots nos invita a reconsiderar qué implica afirmar y cómo podemos definir estas capacidades en un entorno cada vez más dominado por la tecnología. Aunque los chatbots aún no cruzan el umbral completo de la asertividad lógica y ética humana, el viaje casi promete revelar más sobre nuestra propia naturaleza conversacional que sobre la de ellos.