En 2017, el CEO de NVIDIA Jensen Huang afirmó en una entrevista: «la IA se va a comer al software«. Lo hizo inspirándose u homenajeando el título de un célebre artículo de Marc Andreessen, publicado en el Wall Street Journal seis años antes, en el que explicaba por qué el software se estaba comiendo el mundo.
Estos artículos forman parte de la historia reciente de la IA y a menudo los utilizo para explicar cómo hemos llegado al punto en el que nos encontramos hoy. Pero en mi artículo de hoy no voy a hablar de eso. Lo que quiero repasar son algunos retos importantes que tenemos todas las empresas y organizaciones ante la revolución acelerada que está provocando la IA generativa, razonadora y agéntica; y lo haré inspirándome en el título de un reciente artículo publicado por el propio Jensen Huang. Como él también es muy partidario de los homenajes, seguro que no le importará.
La IA es un edificio de 7 plantas
Si miramos los componentes que forman parte de la estructura tradicional de los sistemas de información de nuestras organizaciones, podemos ver que básicamente tenemos…
- …aplicaciones, orientadas a diferentes perfiles de usuario y que trabajan con…
- …datos, internos o externos a nuestra organización, y que funcionan sobre…
- …infraestructuras, de almacenamiento, de red o de cómputo, utilizando…
- …chips, diseñados para ejecutar las operaciones matemáticas consumiendo…
- …energía, de la forma más eficiente posible.
Podríamos imaginar estos 5 niveles como 5 plantas de un edificio en el que cada planta necesita apoyarse de forma robusta sobre las inferiores para poder entregar el valor real al usuario en la planta 5.
Pues bien, como la IA lo está cambiando todo, creo que también está transformando sustancialmente este edificio. De hecho, para aprovechar todo el potencial de la IA agéntica, creo que hay que construir —aunque sea mentalmente— un nuevo edificio al lado con 7 plantas. Dibujémoslo.
Y ahora podemos preguntarnos: ¿es realmente un nuevo edificio?
Pues pienso que sí, porque el primer edificio, donde viven las aplicaciones deterministas tradicionales, no va a desaparecer; lo seguiremos teniendo y tendremos que mantenerlo durante muchos años.
Por otro lado, el segundo edificio, donde vivirá la IA agéntica, tiene unos cimientos bastante diferentes. Repasemos brevemente sus características, planta por planta.
1. Energía
A menudo se dice que la IA es, al final, electricidad transformada en cálculos. Parece una obviedad y podríamos pensar que las aplicaciones tradicionales también son lo mismo. Pero hay una diferencia de escala tan grande que hay que entender este nivel como la base de algo nuevo.
Hace pocos meses, OpenAI cerró el año 2025 operando con una capacidad energética de 2 GW para hacer funcionar ChatGPT. Esta potencia equivale a 2 centrales nucleares o a las necesidades de una ciudad como Barcelona. Según la propia empresa, para 2033 necesitarán 250 GW, equivalentes a 250 reactores nucleares. Esta cifra representa que una única empresa requerirá más de la mitad de la capacidad instalada de los 437 reactores que tenemos actualmente en todo el planeta.
Este cambio de escala, con implicaciones evidentes para la sostenibilidad y la disponibilidad, hará que muchas organizaciones necesiten nuevo talento para analizar y optimizar el impacto energético de sus soluciones de IA. En otras empresas, la decisión estratégica será clara: delegar en el proveedor el coste de la energía vía precio por token y concentrarse en las plantas superiores. Pero delegar no significa ignorar; habrá que saber qué energía mueve los agentes porque cada vez más clientes, reguladores e inversores lo van a preguntar. En el edificio de las aplicaciones tradicionales, este tema era poco relevante. En el nuevo edificio, es prioritario.
2. Chips
Si la energía es el combustible, los chips son el motor. Y en los últimos años han dejado de ser un componente más para convertirse en el verdadero cuello de botella de la economía de la IA. Una sola GPU H100 cuesta unos 30.000 dólares y los centros de entrenamiento de los modelos de frontera utilizan decenas o cientos de miles de ellas. La demanda supera con creces a la oferta y, a menudo, acceder a ellos depende más de la relación con el proveedor que del presupuesto disponible. En el edificio tradicional, los servidores eran un commodity que se compraba por catálogo. En el nuevo edificio, los chips son un activo escaso y estratégico.
La categoría, además, se ha diversificado: GPUs de propósito general (las omnipresentes NVIDIA), aceleradores propietarios de los hiperescaladores (TPUs de Google, Trainium de AWS, Maia de Microsoft), chips especializados en inferencia con latencias extremadamente bajas (Groq, Cerebras) y NPUs integradas para ejecutar modelos pequeños en móviles o portátiles. Pero todo ello dependiendo de una cadena de suministro muy corta: TSMC y Samsung fabricando chips y ASML produciendo las máquinas de litografía EUV. Pura geopolítica.
La buena noticia es que empieza a aparecer una separación saludable entre el silicio de entrenamiento —carísimo y con pocos actores— y el silicio de inferencia, donde el ecosistema es más abierto y competitivo, y que es lo que permitirá agentes en tiempo real a coste razonable. Y aquí aparece una cuestión que hace pocos años no estaba en la agenda de ningún consejo de administración: la soberanía tecnológica. Las organizaciones —y los países— que quieran tener capacidad real de decisión en el nuevo edificio de la IA necesitarán incorporar nuevo talento que hoy escasea: ingenieros de arquitecturas y especialistas capaces de exprimir cada watt y cada ciclo del hardware disponible. En el edificio tradicional, los chips eran una decisión de compra. En el nuevo edificio, son una decisión de futuro.
3. Infraestructura
La planta 3 es la fábrica que convierte chips y energía en capacidad consumible. Permite, por ejemplo, que una startup de diez personas tenga acceso al mismo poder de cómputo que un gran banco, simplemente pagando por uso.
Aquí encontramos a los hiperescaladores clásicos, con servicios como AWS Bedrock, Azure AI Foundry o Google Vertex AI, y las neoclouds especializadas en IA. Sobre estos proveedores se construyen los clústeres de entrenamiento, las plataformas de inferencia, las pasarelas de IA que centralizan enrutamiento y políticas, y toda la disciplina de MLOps/LLMOps: CI/CD, observabilidad, versionado de prompts y evaluación continua.
Las decisiones críticas en esta planta son, sobre todo, de gobernanza:
- ¿Qué cargas de trabajo pueden ir a APIs públicas y cuáles requieren despliegue privado on-premises?
- ¿En qué regiones aceptamos operar, especialmente cuando hablamos de datos sensibles o regulados?
- ¿Qué modelo de soberanía de datos garantizamos a nuestros clientes?
- ¿Qué plataformas estandarizamos internamente para evitar la proliferación de la shadow AI? Hablo de aquel fenómeno, muy habitual, en el que cada equipo acaba montando su propio conjunto de herramientas al margen de la organización, con todos los riesgos de seguridad, coste y cumplimiento que ello conlleva.
También aquí hará falta nuevo talento. En el primer edificio, los equipos de plataforma saben mucho de redes, virtualización y contenedores. En el nuevo edificio, hacen falta perfiles que dominen la orquestación de GPUs, las arquitecturas de inferencia distribuida y la observabilidad de agentes, capaces de evaluar su rendimiento desde todas las perspectivas: coste, latencia, calidad y alineamiento.
4. Datos
Llegamos a la planta donde empieza a haber diferenciación real. Los modelos de propósito general son, en gran medida, un commodity accesible por API. Pero el conocimiento propio de cada organización —los contratos, la relación con los clientes, la documentación técnica, los procesos— no lo es, ni lo será nunca.
En el primer edificio ya teníamos datos, bien estructurados en bases relacionales, data warehouses y data lakes. Todo eso sigue siendo válido. Pero el nuevo edificio exige, además, saber trabajar con datos no estructurados a gran escala (PDFs, tickets, transcripciones, imágenes, audio…) y convertirlos en algo que un modelo —en la planta superior— pueda entender y utilizar de forma fiable, trazable y gobernada. Aparecen elementos nuevos, como la ingesta y preparación específica para IA, las bases de datos vectoriales que soportan búsqueda semántica y RAG, o los grafos de conocimiento. Los agentes los consumirán de maneras diversas: vía RAG, vía tool use sobre datos estructurados, con un fine-tuning ligero cuando el dominio lo justifique, o vía la memoria del propio agente, capitalizando las conversaciones y decisiones pasadas para mejorar las futuras.
Pero la parte más relevante de esta planta es de nuevo la gobernanza: el catálogo, el linaje desde la fuente hasta el prompt, la clasificación (público, interno, confidencial, personal), el cumplimiento del RGPD, la anonimización, etc. Un agente es tan bueno y tan seguro como los datos a los que accede. La idea clave de esta planta, y seguramente de todo el edificio, es esta: la ventaja competitiva permanente en IA casi nunca está en el modelo; está en los datos propios de calidad, bien gobernados y bien conectados.
En el edificio tradicional, los datos son un activo que se consulta. En el nuevo edificio, son un activo que razona con los agentes de IA y con nosotros.
5. Modelos
Si los datos son la materia prima, los modelos son el cerebro del nuevo edificio. Y creo que es importante entrar en esta planta con una primera idea clave: ya no tiene sentido hablar de «elegir el mejor LLM o el mejor proveedor». Lo que hay que elegir es un conjunto de modelos según la tarea, coste, latencia, privacidad y capacidad de razonamiento. Tenemos:
- Los modelos de frontera (como Gemini, GPT o Claude), de altas prestaciones, acceso por API y habitualmente multimodales, combinando texto, imagen, audio y vídeo.
- Los modelos con razonamiento extendido, optimizados para planificar o programar, adecuados para los agentes que encadenan múltiples pasos.
- Los modelos de pesos abiertos (como Mistral, DeepSeek, Qwen o Gemma) que permiten despliegue privado, fine-tuning y soberanía.
- Los modelos pequeños (SLMs), rápidos y baratos, ideales para tareas concretas como la clasificación, la extracción o el enrutamiento dentro de un agente.
- Un buen puñado de modelos especializados: embeddings, OCR, speech-to-text, generación de imagen o de código.
- Y los modelos clásicos de ML —forecasting, detección de anomalías, scoring—, que no han desaparecido y conviven con los generativos dentro de los mismos agentes.
Gestionar bien esta planta requerirá elegir el modelo adecuado para cada tarea —no todas necesitan un LLM de frontera—, hacer enrutamiento multimodelo por coste y capacidad, y construir evaluaciones propias basadas en nuestros casos de uso. Los benchmarks públicos son orientativos; los únicos que realmente importan son los que miden si el modelo hace bien el trabajo que necesito yo en mi empresa.
Pero la decisión arquitectónica más importante es otra: mantener la independencia de modelos concretos. Los modelos se actualizan cada poco, y lo que hoy es el estado del arte mañana será superado. Hay que crear una buena capa de abstracción que permita cambiar de proveedor, mezclar modelos abiertos y cerrados, y aprovechar cada nueva generación sin tener que rehacer las aplicaciones. Es, seguramente, una de las mejores inversiones arquitectónicas que se pueden hacer hoy.
6. Aplicaciones
Esta es la planta donde la IA agéntica se hace tangible. Es donde un modelo que genera texto se convierte en un agente que observa, planifica, actúa, aprende y rinde cuentas. Y hay que tener claro que para diseñar un sistema agéntico, la mayor parte del trabajo —y del valor— está en los componentes que rodean al modelo, no en el modelo mismo.
De forma sintética, un sistema agéntico moderno tiene ocho piezas:
- Una personalidad o persona que define la identidad del agente: su rol, su tono o los límites de lo que puede y no puede hacer. Es, en cierto modo, el DNI del agente y la primera decisión de diseño.
- Un orquestador que decide en cada paso si hay que llamar al modelo, usar una herramienta, pedir confirmación al usuario o dar la tarea por terminada (LangGraph, Semantic Kernel, CrewAI, AutoGen…).
- Una memoria multicapa: de corto plazo (la conversación en curso), de largo plazo (preferencias y hechos persistentes), episódica (ejecuciones pasadas reutilizables) y semántica (conocimiento estable del dominio).
- Un conjunto de herramientas que son las «manos» del agente —APIs, ejecución de código, navegación web—, hoy a menudo conectadas vía el estándar MCP.
- Un bucle de razonamiento para dividir objetivos en subtareas y replanificar cuando algo falla. Y, cuando hace falta, patrones multiagente con roles (un investigador, un redactor, un revisor y un coordinador).
- Una interfaz que involucra a los humanos cuando es necesario (human-in-the-loop).
- Una capa de observabilidad y evaluación con trazas completas de cada ejecución (prompts, herramientas llamadas, tokens, coste, latencia) para asegurar la calidad.
- Una capa de seguridad, cumplimiento y control donde se asignan al agente los permisos y límites (de presupuesto y tiempo), y se implementan los sistemas de auditoría o los guardarraíles de entrada y salida.
En el primer edificio, las aplicaciones son deterministas: una misma entrada produce siempre la misma salida, y la calidad se valida con pruebas unitarias. En el nuevo edificio, las aplicaciones son probabilísticas: una misma entrada puede producir respuestas diferentes, y la calidad se mide estadísticamente con evaluaciones continuas. Este cambio tiene implicaciones profundas en cómo se construyen, se prueban, se despliegan y se mantienen las aplicaciones.
En el primer edificio, los equipos de desarrollo dominan los frameworks clásicos, las arquitecturas de microservicios y las prácticas de DevOps. El nuevo edificio exige, además, perfiles expertos en diseño de agentes, orquestación, context engineering, integración vía MCP, observabilidad de agentes y seguridad específica de sistemas probabilísticos.
En el edificio tradicional, las aplicaciones se ejecutan. En el nuevo edificio, las aplicaciones deciden.
7. Casos de uso
Llegamos a la planta más alta, que es probablemente la única que realmente le importa al negocio. Todas las plantas anteriores solo tienen sentido si se traducen en resultados concretos: productividad, ingresos, satisfacción del cliente o nuevos productos. Y también es la planta más humana del edificio: aquí conviven personas, procesos, cultura y gestión del cambio.
Tendremos dos grandes tipos de casos de uso. Los de IA pasiva —chatbots que responden o asisten— son enormemente útiles y a menudo los primeros que adopta una organización. Los de IA activa —agentes que planifican y ejecutan tareas de principio a fin— desplazan nuestro rol humano hacia el de supervisores que revisamos y aprobamos. Requieren más diseño de procesos, permisos y auditoría, pero son los que abrirán las transformaciones más profundas y generarán más valor.
Esta nueva manera de interactuar con la tecnología exige una nueva manera de diseñar la experiencia de usuario (UX). Las aplicaciones AI-Native no son aplicaciones tradicionales con un chatbot pegado en la esquina; son algo diferente, con principios de diseño propios: intención en lugar de navegación por menús (el usuario declara lo que quiere conseguir, no busca el botón que lo hace); control humano con capacidad de detener, corregir o aprobar paso a paso según el riesgo; transparencia sobre qué hará el agente y por qué; feedback in-context que permite corregir sin romper el flujo; multimodalidad real (texto, voz, imagen, documentos); interfaces generativas que se construyen dinámicamente según la tarea; y reversibilidad de las acciones siempre que sea posible.
Pero hay un factor diferencial, en esta planta, que me parece todavía más importante que todos los anteriores. Son los usuarios los que identifican, crean y comparten sus propios casos de uso.
La época en la que un departamento de TI diseñaba todos los casos de uso se ha acabado. Con las herramientas adecuadas, cualquier persona puede identificar una tarea repetitiva suya, construir un mini-agente que la automatice y compartirlo con otros. Este cambio es tan relevante como el que supuso la hoja de cálculo en los años ochenta: mueve la capacidad de automatizar trabajo hacia las personas que mejor lo conocen. Para que esto funcione, la organización tiene que poner tres condiciones sobre la mesa:
- Una plataforma corporativa segura para crear los casos de uso, donde se apliquen las características, identidad y permisos adecuados.
- Un marketplace o portal interno de asistentes y agentes donde los casos de uso útiles se descubren, se comparten y se reutilizan. La organización que mejor despliega y cultiva este entorno gana una ventaja enorme.
- Una gobernanza ligera que distinga entre lo sensible (clientes, dinero, datos personales), que necesita aprobación formal, y el resto, donde conviene dejar espacio para la exploración. Todo ello acompañado de formación en pensamiento agéntico y compartición de buenas prácticas, porque la adopción de la IA es, antes que nada, un fenómeno que tiene que instalarse en la cultura corporativa.
También aquí hará falta nuevo talento, pero de un tipo diferente al de las plantas inferiores. No tanto perfiles técnicos nuevos, sino personas de negocio capaces de pensar agénticamente: descomponiendo procesos, definiendo objetivos claros, diseñando flujos con supervisión humana, midiendo resultados e iterando. Harán falta también jefes de producto de IA, diseñadores UX AI-Native y figuras nuevas como los AI Champions que traccionarán al resto de la organización.
En el edificio tradicional, los casos de uso los especificaba el negocio y los implementaba TI. En el nuevo edificio, los casos de uso los descubren, prototipan y comparten las propias personas que hacen el trabajo.
Y ahora, ¿cómo usamos este edificio?
El nuevo edificio de 7 plantas no es solo una metáfora descriptiva. El objetivo de este artículo es crear una herramienta de reflexión y de decisión que permita a cualquier Comité de Dirección responder cuatro preguntas, en orden:
- ¿En qué planta competimos realmente? Para la gran mayoría de empresas, las plantas 1, 2 y 5 no son el terreno de juego; son un coste delegado en los proveedores. Las infraestructuras (planta 3) tampoco son el espacio donde competir para muchos, pero en algunos casos, cuando la soberanía o la confidencialidad lo exijan, habrá que asumir su gestión interna.
- ¿Dónde tenemos ventaja diferencial? En los datos propios (planta 4), en los casos de uso específicos de nuestro negocio (planta 7) y en la habilidad con la que conectamos ambas cosas a través de los agentes (planta 6). Esta será la «salsa secreta» de nuestro negocio y es donde tenemos que centrar los esfuerzos.
- ¿Qué estamos delegando y en quién? Energía, en el sistema. Infraestructura y modelos, en proveedores de referencia (con una estrategia multimodelo). Pero nunca los datos ni los casos de uso: eso se queda en casa y no se delega. Solo necesitaremos talento interno y externo, con expertos de confianza que nos acompañen.
- ¿Estamos gestionando bien los riesgos? Como hemos visto, el nuevo edificio requiere ese nuevo talento que acabamos de comentar, y también implica nuevos riesgos que hay que gestionar, desde la sostenibilidad energética de la planta 1 hasta problemas de seguridad o ética en los casos de uso de la planta 7. De nuevo, habrá que acompañarse de expertos de confianza para hacerles frente.
Porque, en resumen, la idea que me gustaría transmitir es esta:
La IA es un edificio de 7 plantas; las de abajo se compran, las del medio se diseñan siguiendo las recomendaciones de los expertos y las de arriba se desarrollan a medida con las personas de la organización. El valor está en las plantas altas, pero sin cimientos sólidos no se sostendrán.
Y, sobre todo, ningún edificio se levanta solo. Solo se levanta juntando a personas que saben construirlo con personas que quieran vivir en él.