
En el actual proceso de transformación digital, la automatización de la atención al cliente mediante sistemas de inteligencia artificial, particularmente chatbots y asistentes virtuales, se ha consolidado como una estrategia dominante en organizaciones públicas y privadas. Este fenómeno responde a una lógica aparentemente incuestionable: reducción de costos operativos, aumento de la eficiencia y escalabilidad del servicio. Sin embargo, esta narrativa, centrada en indicadores cuantitativos, omite una dimensión fundamental: la naturaleza profundamente humana de la interacción en contextos de servicio.
La pregunta, por tanto, no es si la automatización es conveniente, porque lo es en múltiples dimensiones, sino si su implementación está erosionando elementos críticos como la empatía, la confianza y la percepción de justicia en la atención. Esta reflexión sostiene que el problema no radica en la inteligencia artificial como herramienta, sino en su uso como sustituto indiscriminado de la interacción humana, lo que puede derivar en una degradación estructural de la calidad del servicio.
Eficiencia no es calidad
Desde una perspectiva operativa, la automatización permite resolver grandes volúmenes de interacciones rutinarias en tiempos mínimos. Estudios recientes indican que los sistemas de IA son altamente eficaces en la gestión de tareas estandarizadas, como consultas frecuentes o procesos transaccionales simples (Huang & Rust, 2021). No obstante, esta eficiencia no necesariamente se traduce en una mejor experiencia del usuario.
El problema emerge cuando las organizaciones equiparan eficiencia con calidad. En términos de economía conductual, la satisfacción del cliente no depende exclusivamente del resultado objetivo de la interacción, sino de factores como la percepción de trato justo, la empatía y la capacidad de ser escuchado (Kahneman, 2011). Así, una respuesta técnicamente correcta, pero emocionalmente indiferente, puede ser percibida como deficiente.
Más aún, investigaciones recientes han demostrado que los usuarios desarrollan niveles de confianza diferenciados hacia sistemas automatizados dependiendo de su capacidad percibida de comprensión emocional y transparencia (Glikson & Woolley, 2020). En este sentido, la automatización sin una arquitectura de empatía no solo es insuficiente, sino potencialmente contraproducente.
Automatizar no es sustituir
Un punto crítico identificado en la literatura es el uso de la inteligencia artificial como mecanismo de contención, en lugar de apoyo. El Consumer Financial Protection Bureau advirtió que algunos sistemas de atención automatizada generan lo que denomina “doom loops”: ciclos repetitivos donde el usuario no logra resolver su problema ni acceder a asistencia humana efectiva (Consumer Financial Protection Bureau, 2023).
Este fenómeno no es menor. Implica una ruptura en la promesa básica del servicio: resolver necesidades. Cuando un sistema automatizado bloquea el acceso a un agente humano, se transforma de herramienta facilitadora en barrera estructural.
En el ámbito empresarial, McKinsey & Company (2025) ha señalado que la integración óptima de inteligencia artificial en centros de atención no debe orientarse exclusivamente a la reducción de costos, sino a la mejora de la experiencia del cliente. En particular, enfatiza que los casos complejos, emocionalmente sensibles o ambiguos requieren intervención humana, dado que implican juicio contextual y capacidad empática.
La dimensión relacional
La evidencia converge en un punto central: la interacción humana no es un residuo del pasado analógico, sino un componente estructural del servicio de calidad. En contextos donde el cliente enfrenta incertidumbre, frustración o afectación directa, como errores de facturación, trámites críticos o vulnerabilidad social, la necesidad de empatía y reconocimiento adquiere un peso determinante.
Este argumento adquiere aún mayor relevancia en el sector público, ya que según la Organización para la Cooperación y el Desarrollo Económicos, los servicios digitales deben diseñarse con un enfoque centrado en el usuario, incorporando mecanismos que permitan identificar cuándo es necesario escalar hacia interacción humana (OECD, 2025). De lo contrario, la digitalización puede generar exclusión, especialmente en poblaciones con menor alfabetización digital o en situaciones de alta complejidad administrativa.
Así, la automatización indiscriminada en el sector público no solo afecta la calidad del servicio, sino que puede comprometer principios fundamentales como el acceso equitativo, la transparencia y la legitimidad institucional.
La intervención humana requiere formación
Reconocer el valor de la intervención humana no implica idealizarla. Históricamente, la atención brindada por personas tampoco ha sido siempre sinónimo de empatía, escucha o solución efectiva. En muchos contextos, el cliente ha enfrentado indiferencia, trato mecánico, respuestas evasivas o incluso formas de maltrato institucional. Por ello, la defensa del factor humano no debe entenderse como una nostalgia por el servicio tradicional, sino como una exigencia de profesionalización del trato.
La literatura sobre calidad del servicio ha mostrado que la experiencia del usuario depende no solo del resultado recibido, sino también del proceso de interacción, la confianza generada, la capacidad de respuesta y la percepción de justicia en el trato (Parasuraman, Zeithaml, & Berry, 1988). Desde esta perspectiva, una persona no agrega valor simplemente por estar presente. Agrega valor cuando cuenta con formación, criterio, habilidades comunicativas, capacidad de contención emocional y autonomía razonable para resolver problemas.
También debe reconocerse que existen clientes difíciles. Algunos usuarios pueden actuar con impaciencia, agresividad, desconfianza o expectativas desproporcionadas. Sin embargo, precisamente por ello, la respuesta organizacional no puede limitarse a sustituir personas por sistemas automatizados. La gestión de interacciones complejas requiere capacitación en comunicación empática, manejo de conflictos, regulación emocional, escucha activa y técnicas de desescalamiento.
En este punto, la teoría del trabajo emocional resulta especialmente pertinente. Hochschild (1983) mostró que muchas ocupaciones de servicio exigen gestionar emociones propias y ajenas como parte del desempeño laboral. Posteriormente, Grandey (2000) desarrolló esta idea al explicar que la regulación emocional en el trabajo puede afectar tanto la calidad del servicio como el bienestar del trabajador. Esto significa que pedir empatía al personal sin capacitación, apoyo institucional y condiciones laborales adecuadas puede convertirse en una carga injusta y contraproducente.
Por tanto, el modelo híbrido no debe consistir únicamente en combinar chatbots con agentes humanos. Debe incluir protocolos claros de escalamiento, formación continua del personal, márgenes reales de decisión, supervisión ética de los sistemas automatizados y mecanismos de protección frente a interacciones abusivas. La empatía no puede depender solamente de la buena voluntad individual; debe ser diseñada, entrenada y sostenida institucionalmente.
Así, la cuestión central no es afirmar que “lo humano siempre es mejor”. La afirmación más precisa es otra: la atención humana bien formada, respaldada por tecnología adecuada y sostenida por una cultura organizacional orientada al servicio, sigue siendo insustituible en los casos donde la persona necesita ser comprendida, no solo procesada.
Cuando el sistema no escucha
En el sector financiero, los sistemas automatizados son altamente eficaces para consultas básicas, como saldos o movimientos. Sin embargo, en casos de fraude, disputas o afectaciones crediticias, la ausencia de atención humana puede agravar la percepción de injusticia.
En el comercio electrónico, un chatbot puede informar el estado de un envío. Pero si el producto llega dañado o incumple expectativas en un contexto significativo, por ejemplo, una fecha especial, la respuesta automatizada puede intensificar la insatisfacción.
En el sector público, las plataformas digitales pueden optimizar el acceso a información. No obstante, cuando los ciudadanos enfrentan barreras cognitivas, lingüísticas o situacionales, la falta de acompañamiento humano puede traducirse en exclusión administrativa.
Hacia un modelo híbrido
La automatización no debe ser concebida como un sustituto del servicio humano, sino como un mecanismo de apoyo que libere capacidades para la atención de mayor valor. El desafío no es únicamente tecnológico, sino estratégico y ético.
Las organizaciones que logren articular modelos híbridos, donde la inteligencia artificial gestione lo rutinario y el capital humano intervenga en lo complejo, desarrollarán una ventaja competitiva basada en la calidad relacional. En contraste, aquellas que prioricen la eficiencia operativa en detrimento del trato humano enfrentarán una erosión progresiva de la confianza.
En última instancia, el servicio al cliente no es un problema técnico, sino un fenómeno profundamente humano. Ignorar esta dimensión no solo es un error estratégico, sino una forma silenciosa de deterioro institucional.
Fuentes:
Blackader, B., Buesing, E., Amar, J., Raabe, J., Mehndiratta, M., & Gupta, V. (2025, March 19). The contact center crossroads: Finding the right mix of humans and AI. McKinsey & Company. https://www.mckinsey.com/capabilities/operations/our-insights/the-contact-center-crossroads-finding-the-right-mix-of-humans-and-ai
Consumer Financial Protection Bureau. (2023, June 6). Chatbots in consumer finance. https://www.consumerfinance.gov/data-research/research-reports/chatbots-in-consumer-finance/chatbots-in-consumer-finance/
Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research. Academy of Management Annals, 14(2), 627–660. https://doi.org/10.5465/annals.2018.0057
Grandey, A. A. (2000). Emotion regulation in the workplace: A new way to conceptualize emotional labor. Journal of Occupational Health Psychology, 5(1), 95–110. https://doi.org/10.1037/1076-8998.5.1.95
Hochschild, A. R. (1983). The managed heart: Commercialization of human feeling. University of California Press.
Huang, M.-H., & Rust, R. T. (2021). A strategic framework for artificial intelligence in marketing. Journal of the Academy of Marketing Science, 49, 30–50. https://doi.org/10.1007/s11747-020-00749-9
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Organisation for Economic Co-operation and Development. (2025). Governing with artificial intelligence: The state of play and way forward in core government functions. OECD Publishing. https://doi.org/10.1787/795de142-en
Parasuraman, A., Zeithaml, V. A., & Berry, L. L. (1988). SERVQUAL: A multiple-item scale for measuring consumer perceptions of service quality. Journal of Retailing, 64(1), 12–40.
No hay comentarios:
Publicar un comentario