La IA no va en el organigrama
Cuando 'empleado de IA' reemplaza a 'herramienta de IA', la responsabilidad se diluye, la calidad de revisión cae y la adopción no se mueve. Cómo se nombra a la IA pesa más de lo que parece.

Los CEOs que anuncian “empleados de IA” en sus organigramas creen que están enviando una señal. Modernidad. Escala. Seriedad sobre la tecnología. Una nueva investigación de Boston Consulting Group y Boston University, publicada este mes, sugiere que la señal es real—pero apunta en la dirección equivocada.
El equipo, dirigido por Matthew Kropp en Boston Consulting Group, condujo un experimento aleatorizado con 1,261 gerentes de recursos humanos y finanzas de Estados Unidos, Canadá, y la Unión Europea. Cada gerente revisó documentos de trabajo con errores sembrados deliberadamente. Lo único que cambió entre los tres grupos fue la firma del documento: provenía de una herramienta de IA, de un compañero humano llamado “Alex” o de un empleado de IA llamado “ALEX-3.”
Entre los gerentes cuyas empresas ya listan agentes de IA en sus organigramas—aproximadamente 23 por ciento de la muestra—el encuadre de “empleado de IA” produjo daño medible en cuatro dimensiones y cero beneficio en el único resultado con el que la dirección sigue justificándolo.
La responsabilidad se diluye
Cuando el documento se presentó como obra de un empleado de IA, la responsabilidad personal cayó nueve puntos porcentuales y la responsabilidad atribuida a la IA subió ocho. Un participante cuya empresa lista a “Kevin” como empleado de IA describió cómo se ve eso en la práctica: cuando ocurren errores, el equipo los narra como un error de Kevin. Otro participante lo dijo más directo: “La culpa no es de una persona; es de la tecnología.”
El software no puede asumir responsabilidad. No tiene agencia, ni consecuencias profesionales, ni nada en juego. Tratarlo como si pudiera no es un descuido—es un error de categoría que permite que los humanos a su alrededor dejen de hacerse cargo del resultado.
La revisión empeora
Comparado con el encuadre de “herramienta de IA”, los gerentes en el grupo de “empleado de IA” pidieron revisión adicional 44 por ciento más seguido, mientras que detectaron 18 por ciento menos errores ellos mismos. Algunos de los errores no detectados eran del tipo que debería atraparse en una sola lectura: un contrato descrito como reductor de costos mientras la hoja de cálculo muestra que los costos suben; una descripción de puesto de nivel inicial que exige más de 10 años de experiencia.
El mecanismo es intuitivo. Cuando la firma dice “herramienta de IA”, el revisor se trata a sí mismo como la parte responsable. Cuando la firma dice “empleado de IA”, se trata a sí mismo como el segundo par de ojos—y los segundos pares de ojos aplican menos escrutinio que los primeros.
La identidad y la confianza se desgastan
En la muestra completa, los gerentes en empresas que usan el encuadre de “empleado de IA” reportaron 13 por ciento más incertidumbre sobre su propia identidad profesional, 7 por ciento más preocupación por la seguridad laboral, y 10 por ciento menos confianza en cómo se usaría la IA. Un participante lo dijo directo: “Si quiere que la gente sienta que va a perder su trabajo por la IA, o que puede ser reemplazada fácilmente por la IA, póngala en el organigrama.”
El resultado es un problema de señalización por parte de la dirección, disfrazado de problema de etiquetado. Cuando las empresas empujan la IA sin clarificar en qué se convierten los roles humanos, el camino de menor resistencia cognitiva es asumir que la IA es el reemplazo. Algunos roles son sustituibles; muchos son aumentables. Una empresa que no distingue entre los dos deja que cada empleado asuma que está en la primera categoría.
La adopción no se mueve
La justificación que los CEOs ofrecen para el encuadre es que acelera la adopción. Los datos no respaldan eso. Los participantes expuestos al encuadre de “empleado de IA” reportaron la misma intención de adopción que aquellos expuestos al encuadre de “herramienta de IA”. Entre organizaciones, encuadrar la IA como empleado o compañero de equipo no produjo diferencia clara en la adopción frente a encuadrarla como herramienta.
Lo que sí impulsa la adopción, según encontraron los investigadores, es el modelado por parte de los gerentes. Como lo dijo un participante: “En el momento en que vi que se estaba ligando al éxito del empleado—cuando alguien usaba un LLM, lo destacaban en una asamblea general—empecé a decirle a todo mi equipo: ‘Tienen que usar esto lo más que puedan.’” Un estudio separado de Boston Consulting Group encontró que las empresas líderes en madurez de IA tienen 3.5 veces más probabilidad de contar con gerentes que sirven de modelo en el uso de IA. Más allá del modelado, la adopción se estanca por razones que la mayoría de los rollouts no miden.
Lo que el encuadre decide
La elección entre “herramienta de IA” y “empleado de IA” suena lingüística. No lo es. Es una decisión arquitectónica sobre cómo la organización asigna supervisión, cómo establece expectativas de revisión y cómo le explica a los empleados lo que se les está pidiendo hacer.
Una herramienta es algo que una persona usa, y esa persona es responsable del resultado. Un empleado es alguien que la organización gobierna, responsable por derecho propio. La IA pertenece a la primera categoría y no a la segunda. Ponerla en la segunda desplaza silenciosamente el modelo de responsabilidad sobre el que opera la organización.
Los equipos de marketing ya empezaron a toparse con la misma pregunta: a medida que los agentes asumen el trabajo de producción, el rol del responsable de marketing pasa de productor a director. El equipo de Boston Consulting Group describe el mismo cambio para todas las demás funciones. Los roles humanos suben en la cadena de valor—hacia el juicio, la supervisión, el manejo de escalamientos, y la ambigüedad—mientras los agentes se quedan con la ejecución. El rediseño es lo que hace funcionar al modelo. Llamar al agente colega corta el rediseño en seco al implicar que el rol no ha cambiado realmente.
La parte difícil
El marco tiene recomendaciones limpias. Las implementaciones no.
Redefinir flujos de trabajo es un programa de varios trimestres para cualquier función con volumen real. Los tramos de control no se expanden automáticamente solo porque la producción lo haga; si un gerente podía supervisar a ocho humanos, no puede supervisar a ocho humanos más 12 agentes con el mismo estándar de revisión. La gestión del desempeño tiene que recompensar la calidad de la supervisión, no solo la velocidad de salida—y la mayoría de los sistemas de desempeño nunca se construyeron para medir eso. La construcción de capacidades para los gerentes que ahora dirigen equipos agénticos es un currículum que aún no existe en la mayoría de las empresas.
El punto debajo de todo es que la capacidad más importante en IA no es técnica. Es el juicio para saber cuándo confiar en el agente, cuándo desautorizarlo y cómo estructurar el trabajo para que el alcance del agente coincida con su confiabilidad real. Ese juicio vive en los humanos. Tratar la IA como colega lo oscurece; tratar la IA como software lo aclara.
. . .
El organigrama es una herramienta para asignar responsabilidad humana. Funciona porque las personas en él pueden ser razonadas, ascendidas, despedidas, y responsabilizadas. Una pieza de software no puede ser ninguna de esas cosas. Ponerla ahí no hace a la empresa más avanzada. Solo hace que la responsabilidad sea más difícil de encontrar.