IESE Insight
IA generativa: fácil de usar, difícil de gestionar
La IA no transforma las empresas por sí sola. Hace falta reconfigurar la organización en torno a la cognición abundante, el criterio experto y el aprendizaje acumulativo.
Por Sampsa Samila
Cuando la mayoría de las personas prueba por primera vez la IA generativa, le sorprende lo fácil que resulta y la variedad de aplicaciones que ofrece. Esta facilidad y generalidad han impulsado una adopción masiva a nivel individual: en Estados Unidos, por ejemplo, más de la mitad de los adultos la utilizó en 2025. Gracias a las capacidades generalistas de los modelos, los empleados pueden realizar tareas que antes estaban fuera de su alcance y ahorrar tiempo. Pero lo que funciona para las personas no es lo mismo que lo que funciona para las empresas. A nivel organizacional, los beneficios individuales todavía no se han traducido en resultados ni en productividad.
Esa brecha entre los beneficios individuales y el impacto organizacional no se cierra sola. Son los directivos quienes deben cerrarla y, para ello, han de aplicar los mismos principios de gestión de siempre a una tecnología con características nuevas. Como señalaron los economistas Carl Shapiro y Hal Varian hace una generación, “la tecnología cambia, las leyes de la economía no”. La teoría de precios sigue prediciendo qué ocurre cuando cae el coste de un factor de producción, pero ese factor es ahora el trabajo cognitivo, muy distinto de una materia prima o un componente. El diseño organizacional continúa siendo clave, pero la frontera entre las tareas humanas y las de las máquinas plantea un nuevo desafío. Y las empresas no pueden prescindir de un propósito que, como principio rector en el despliegue de la IA, ayude a determinar qué automatizar, qué potenciar, qué proteger y qué rechazar.
Para lograr una transformación real, las compañías han de contar con procesos repetibles y escalables, así como con líderes capaces de ejecutarlos. El nuevo desafío del liderazgo en la era de la IA obliga a pensar en procesos y sistemas en múltiples capas, algo que supone un cambio de enfoque para muchos. Demanda construir una organización que se renueve continuamente y desarrolle conocimiento tácito en torno al criterio, los valores y la cultura, además de mantener la agilidad directiva que requiere una frontera tecnológica en constante evolución.
Cartografiar un nuevo territorio
Para orientarse en un territorio nuevo, lo primero que se necesita es un mapa, es decir, entender qué tiene de novedoso la propia tecnología. Lo atractivo de los modelos fundacionales como ChatGPT o Claude es que son generalistas excepcionales: escriben, resumen, traducen, programan, analizan y realizan casi cualquier tarea en lenguaje escrito.
Para las empresas, esa generalidad tiene un coste: los modelos desconocen el contexto específico de cada compañía, pueden generar errores aparentemente veraces (las llamadas alucinaciones) y su nivel de precisión en ámbitos concretos queda muy por debajo de lo que requieren la mayoría de los procesos de negocio. A medida que estos modelos pasan de ofrecer resultados que el usuario revisa a actuar en su nombre, ese umbral cobra una relevancia distinta: un error convincente deja de ser un párrafo equívoco para convertirse en una acción errónea con consecuencias operativas.
En un proceso de varios pasos, esos errores se amplifican. Lo que las empresas precisan para su operativa no es un generalista, sino algo más cercano a un especialista. Para lograrlo, hay que construir una arquitectura de capacidades sobre el modelo fundacional que permita transformar ese generalista en algo capaz de realizar de forma fiable su trabajo.
La arquitectura de capacidades puede organizarse en varias capas:
- El ajuste fino adapta el modelo fundacional a un ámbito concreto mediante entrenamiento adicional con datos relevantes, a costa de reducir su utilidad en otros ámbitos y cambiando generalidad por precisión.
- La generación aumentada por recuperación (RAG) permite que el modelo acceda a documentos y datos propietarios en el momento de la consulta, lo que ancla los resultados en contextos reales de la empresa sin modificar el modelo subyacente.
- La formulación de prompts determina cómo se utiliza el modelo, con bibliotecas y plantillas que estandarizan las entradas que generan resultados fiables.
- La integración incorpora el modelo en flujos de trabajo específicos, donde las interfaces de usuario, el diseño de procesos y el alcance de las autorizaciones determinan dónde entra en juego el criterio humano, dónde no y qué puede ejecutar el sistema por sí mismo.
- La gobernanza establece los límites: qué puede hacer la IA, qué no debe hacer y cómo se revisan sus resultados.
No todas las empresas necesitan todas estas capas, pero cualquiera que use la IA a escala debe decidir qué capas construir, cuáles externalizar y cómo gestionar la complejidad que esto genera.
Gestionar la complejidad reubicada por la IA
Todo proceso tiene una complejidad mínima que se corresponde con la situación del mundo real que gestiona. Esa complejidad no puede eliminarse, solo desplazarse. Para el usuario, una herramienta de IA bien diseñada parece simple: se formula una pregunta y se obtiene una respuesta. Pero la complejidad que el usuario deja de ver no desaparece, sino que se traslada a la arquitectura de capacidades y, más importante aún, a la organización que la opera.
El dilema entre generalidad, precisión y simplicidad
En 1976, el psicólogo social canadiense Warren Thorngate propuso el “postulado de la complejidad proporcional”: ninguna teoría puede ser general, precisa y sencilla a la vez. Una teoría general errará en los detalles, una precisa será limitada y una sencilla obviará los matices. Todo modelo, teoría o incluso cualquier proceso de negocio debe prescindir de una de las tres características en favor de las otras dos.
Cincuenta años después, este modelo de generalidad, precisión y simplicidad sigue vigente para los líderes empresariales interesados en desplegar la IA en sus empresas, aun cuando los grandes modelos de lenguaje (LLM) parezcan cuestionarlo, pues son generales, razonablemente precisos y asombrosamente fáciles de usar. Con todo, la aparente resolución de este dilema es un espejismo.
La sencillez de cara al usuario se ha conseguido trasladando una enorme complejidad al sistema subyacente, incluyendo los parámetros, el entrenamiento y las capas de gobernanza que hacen que la interfaz parezca natural.
En cuanto a la precisión, el dilema no se ha resuelto, sino desplazado. Como los LLM son máquinas de predicción que producen inferencias plausibles en lugar de verificadas, operan en contra de un “umbral de precisión” cada vez más visible a medida que aumenta la generalidad. Ampliar el alcance tiende a incrementar las tasas de error, mientras que estrecharlo mediante el ajuste fino o la recuperación tiende a limitar su utilidad.
En resumen, la simplicidad que los usuarios ven es la complejidad que la organización debe gestionar.
Parte de esa arquitectura se externaliza a proveedores: el modelo fundacional, la infraestructura en la nube o las herramientas comerciales. El resto debe construirse y mantenerse internamente: pipelines de datos, sistemas de recuperación, bibliotecas de prompts, evaluación y gobernanza. Cada elemento requiere personas que entiendan lo que hacen, procesos para mantenerlos actualizados y rendición de cuentas cuando fallan. La aparente simplicidad de la IA en el punto de uso se paga con un aumento sustancial de la complejidad en otras áreas. La responsabilidad es el aspecto más espinoso. Cuando los sistemas ejecutan acciones con consecuencias, la cuestión de quién responde no se reparte de forma automática como el trabajo técnico y, a falta de una asignación deliberada, tiende a recaer allí donde se produjo el daño.
Parte de esa complejidad se sitúa en infraestructuras que dan soporte a toda la organización, como los modelos fundacionales, los sistemas de datos o la monitorización y la gobernanza, pero una parte importante se integra en los propios procesos donde la IA se despliega. Aquí las empresas suelen descubrir que la IA no encaja fácilmente en una fase existente. Los procesos no son un andamiaje neutral: se diseñaron en torno a lo que los humanos pueden hacer, el contexto que cada persona puede asumir, el coste de transferir trabajo entre varias o el tiempo necesario para formarlas en una habilidad concreta. La IA tiene propiedades distintas: puede manejar más contexto, pero carece de conocimiento tácito y no conserva memoria entre sesiones; puede ejecutarse en paralelo a un coste casi nulo, y no se fatiga. La división del trabajo optimizada para humanos no es la adecuada para humanos e IA combinados. Los límites están mal trazados.
Rediseñar los procesos de negocio
Un antiguo alumno del IESE ha señalado un aumento exponencial de la productividad en programación que terminó diluyéndose porque la gestión de producto y el control de calidad se convirtieron en los nuevos cuellos de botella. Según advierte Amazon Web Services, los asistentes de programación basados en IA pueden saturar los procesos posteriores de entrega si no se rediseñan las pruebas, las revisiones y la integración para adaptarse a esta nueva realidad. Cuando una fase cambia en coste o en naturaleza, todo el proceso debe reequilibrarse. Eso suele requerir un rediseño integral, no una simple optimización. Implica preguntarse, en cada fase, si debe existir, quién o qué debe realizarla y cómo se conectan entre sí las distintas partes.
Rediseñar en torno a la IA se reduce a cuatro decisiones: qué hace la IA, qué hace el humano, qué puede hacer la IA sin pedir permiso y cómo fluye la retroalimentación entre ambos. Omitir cualquiera de ellas suele dar lugar a lo que muestran muchos despliegues de la IA: herramientas individuales que funcionan bien, pero resultados a nivel organizacional que no llegan a materializarse.
El rediseño de los procesos en torno a la IA es necesario para lograr mejoras organizacionales. Pero no es, por sí mismo, una fuente de ventaja competitiva, porque todos los competidores pueden rediseñar también y los modelos fundacionales sobre los que todos trabajan son los mismos. Si la tecnología es común, la diferenciación debe venir de lo que cada empresa construye sobre ella: la arquitectura, los procesos que la rodean, los datos con los que aprende y la organización que opera todo el sistema.
La economía del efecto acumulativo
Esto cambia la economía del sistema de una forma específica. La arquitectura en sí es, en gran medida, infraestructura y costes fijos. Los modelos fundacionales se licencian o se construyen, los sistemas de datos y la gobernanza son costosos de implementar, y la capacidad organizacional para gestionarlo todo tampoco es barata. A partir de ahí, el coste marginal de utilizar la arquitectura para una tarea más, un cliente más o un proceso más es muy bajo. La escala importa. La que se despliega en muchos procesos y con muchos clientes se amortiza múltiples veces, mientras que la limitada a una aplicación específica puede no llegar a amortizarse en absoluto. La decisión sobre qué internalizar y qué externalizar en cada capa se vuelve central: qué capas generan suficiente valor diferencial como para justificar su desarrollo interno y cuáles deberían adquirirse a proveedores que pueden repartir sus costes fijos entre todo el sector.
Sin embargo, los costes fijos solo son la mitad de la historia. La tecnología también aprende con el uso. Cuantas más interacciones, más datos se generan para el ajuste fino, más ejemplos para los sistemas de recuperación, más información sobre dónde fallan los prompts y los flujos de trabajo, y más oportunidades para evaluar y mejorar. Una arquitectura muy utilizada mejora más rápido que otra con poco uso. Ese efecto acumulativo es clave, porque la arquitectura de la competencia también aprende, y quien aprende más rápido amplía la brecha.
Parte de lo que se acumula es de naturaleza operativa: la experiencia acumulada sobre cuándo se puede confiar en el sistema, cuándo no y el patrón de fallos en el contexto específico de la empresa. Este conocimiento es propio de cada organización, solo se desarrolla con el uso y no puede adquirirse esperando. No hay un punto de equilibrio estable al que acomodarse.
De ahí se desprende el imperativo de crecimiento. Solo el uso de la IA a escala permite amortizar los costes fijos y alimentar los bucles de retroalimentación. Las empresas que consiguen desplegarla en múltiples procesos y utilizarla de forma intensiva producen tanto las economías como el aprendizaje que necesitan los líderes pioneros. Las que avanzan con cautela pueden descubrir que, cuando estén listas para escalar, la distancia con la competencia ya habrá crecido.
La organización humana
En la base de todo esto hay una distinción aún más fundamental. La IA operacionaliza el conocimiento codificado: lo que una empresa puede poner por escrito, formalizar y representar en un sistema. El conocimiento tácito es de otra naturaleza. Reside en las personas y en las relaciones que establecen entre ellas: el criterio que se forja con la experiencia, la capacidad de intuir qué es lo importante en un contexto específico, los estándares compartidos que un equipo desarrolla con el tiempo y la memoria organizacional de lo que se ha probado y lo que ha fracasado. Los competidores pueden adquirir el mismo modelo fundacional y construir una arquitectura similar, pero no la organización que ha aprendido a trabajar con ella. La IA gestiona el trabajo codificado, mientras que los humanos poseen el conocimiento tácito que lo dirige, evalúa, corrige y le da sentido.
A medida que los sistemas ganan autonomía, gran parte de esa dirección debe ejercerse de forma preventiva, incorporada en el propio diseño del trabajo, ya que disminuyen las oportunidades de intervenir en el momento. El conocimiento tácito sigue siendo humano; lo que cambia es que su punto de aplicación se adelanta.
No obstante, el conocimiento tácito no se mantiene por sí solo, y el uso de la IA puede socavar las condiciones que lo nutren. Este conocimiento siempre ha requerido condiciones específicas para desarrollarse y transmitirse: aprendizaje, mentoría, lidiar con problemas complejos y exponerse al criterio de otras personas en tiempo real. La experiencia en empresas que están en la frontera del despliegue de la IA muestra que los empleados trabajan ahora de forma más autónoma y reciben menos mentoría. Los experimentos indican que los empleados que utilizan la IA pueden delegarle la resolución de problemas y eludir el esfuerzo necesario para afrontarlos. Estos mismos aspectos –independencia, autosuficiencia y uso rápido de herramientas para resolver problemas– pueden aumentar la productividad a corto plazo, pero obstaculizan el desarrollo del conocimiento tácito a largo plazo.
Las habilidades de liderazgo se desplazan así hacia la creatividad, colaboración y gestión de los grupos de interés, o sea, las capacidades humanas que generan y transmiten criterio. Antes, el conocimiento tácito surgía como un subproducto del trabajo: los empleados júnior bregaban con los problemas y buscaban consejo, ya que era la única manera de sacarlos adelante. Ahora, estas condiciones deben diseñarse e implementarse de forma deliberada: mentoría estructurada, exposición a problemas complejos sin asistencia de la IA, entornos donde el esfuerzo productivo se permita y se valore, criterios de evaluación que distingan entre la competencia mediada por la IA y la competencia ganada.
El desafío del liderazgo
Este es el nuevo territorio: la arquitectura de capacidades, la complejidad desplazada, los procesos rediseñados, la economía del efecto acumulativo y la organización humana que posee el conocimiento tácito. Aunque se trata de un territorio verdaderamente nuevo, los principios para orientarse en él son los que la mayoría de los líderes ya conocen. El pensamiento sistémico, las economías de escala, el diseño organizacional y el propósito no son ideas nuevas. Son marcos de gestión duraderos, aplicados a un contexto donde el factor de producción es la cognición, los activos se potencian con el uso y la frontera entre lo que hacen las máquinas y lo que hacen los humanos debe trazarse en lugar de heredarse.
El reto del liderazgo es decidir dónde aplicar la cognición de bajo coste, dónde es aceptable la actuación de las máquinas, dónde debe concentrarse el escaso criterio experto y cómo lograr que la organización aprenda más rápido que sus competidores. Esto exige pensar en sistemas y efectos acumulativos, en lugar de herramientas y pruebas piloto; invertir en la organización humana, cuyo valor aumenta a medida que se abarata la capacidad de las máquinas, y anclar todo el sistema en el propósito, porque los bucles de retroalimentación se potencian hacia donde se orienten. Finalmente, requiere un consejo de administración capaz de gobernar esta labor como una responsabilidad fiduciaria, sin delegarla en la dirección como un mero proyecto tecnológico.
Cada decisión sobre la IA es una apuesta por una trayectoria. La capacidad de esta tecnología aumenta mientras su coste disminuye, siguiendo una tendencia que apenas da señales de tocar techo. Esto implica que, dentro de un año, la IA puede ser el doble de capaz por la mitad de precio. Las empresas que logren transformar los beneficios individuales en impacto a nivel organizacional serán aquellas que ya hayan construido una organización preparada para esta frontera en constante movimiento.
+INFO:
“From model design to organizational design: complexity redistribution and trade-offs in generative AI”, de Sharique Hasan, Alexander Oettl y Sampsa Samila.
“AI adoption and the demand for managerial expertise”, de Liudmila Alekseeva, José Azar, Mireia Giné y Sampsa Samila, publicado en Strategic Management Journal (2026).
“Power steering, not a brake: how boards should actually govern AI”, de Henk de Jong, Robert Maciejko, Sampsa Samila y Christoph Wollersheim.
Una versión de este artículo se publica en la publicación anual Insight for Global Leaders, nº. 2 (2026)
