📉 ¿Qué pasó realmente?
A finales de 2025, Salesforce redujo su personal de soporte de alrededor de 9,000 a 5,000 empleados, reemplazando muchas de esas funciones con agentes de IA que manejan tareas rutinarias de atención al cliente. Según declaraciones del CEO Marc Benioff, la compañía necesitaba “menos personal” porque la IA ya estaba cubriendo una parte significativa de las interacciones con clientes.
Sin embargo, al implementar sus sistemas basados en modelos de lenguaje grandes (LLMs), la empresa enfrentó problemas de confiabilidad y precisión: los agentes a veces omitían instrucciones, se confundían con tareas complejas y no siempre cumplían con lo esperado en ambientes reales de trabajo. Esto llevó a que Salesforce, según sus propios ejecutivos, se diera cuenta de que estaba demasiado confiado en la IA sin la estructura necesaria para garantizar resultados consistentes.
🤔 ¿Qué admisión hizo Salesforce?
Sanjna Parulekar, vicepresidenta sénior de marketing de productos, declaró que la empresa —y sus líderes— estaban más confiados en los grandes modelos de IA hace un año de lo que debería haber sido, lo que implicó una sobreestimación de su capacidad para resolver tareas complejas y críticas sin supervisión humana robusta.
En respuesta, Salesforce ha comenzado a mover su enfoque hacia lo que llama automatización “determinística”, es decir, sistemas más controlados y predecibles que combinan reglas claras con IA, en vez de confiar únicamente en el comportamiento impredecible de los modelos de lenguaje puro.

📊 Lecciones clave para el sector tecnológico
La experiencia de Salesforce sirve como advertencia para otras empresas tecnológicas que han apostado fuerte por la automatización con IA:
-
🔹 La IA no es infalible. La complejidad de tareas empresariales reales puede poner en evidencia las limitaciones actuales de los modelos de lenguaje.
-
🔹 Equilibrio entre tecnología y personas. Sustituir completamente trabajadores humanos por IA puede ahorrar costos, pero trae desafíos prácticos que requieren estrategias híbridas.
-
🔹 Implementación responsable. Las empresas deben asegurarse de que sus sistemas automatizados ofrezcan resultados confiables antes de prescindir de capacidades humanas clave.

📌 Conclusión
El caso de Salesforce demuestra que, aunque la inteligencia artificial promete mayor eficiencia y escalabilidad, todavía existen desafíos significativos cuando se trata de reemplazar funciones humanas complejas. El optimismo excesivo sobre la capacidad de la IA puede llevar a decisiones estratégicas arriesgadas, como grandes despidos, que luego requieren ajustes y correcciones.
Esta experiencia podría marcar un punto de inflexión en cómo las grandes corporaciones integran la IA: no como sustituto de los trabajadores, sino como herramienta que, bien diseñada y en conjunto con humanos, aporte mejores resultados sin comprometer la calidad operativa.




Comentarios
Los comentarios se cargarán automáticamente...