Términos en este glosario

  1. Agente de IA
  2. Orquestación
  3. Human-in-the-loop
  4. RAG
  5. Digital Worker
  6. GaaS
  7. LLM
  8. MCP
  9. Pipeline de agentes
  10. Estado persistente
  11. Embedding
  12. GEO
  13. Fine-tuning
  14. Alucinación
  15. Herramienta (tool)
  16. Ventana de contexto
  17. Soberanía de datos
  18. RGPD e IA

Agente de IA

AI Agent

Un agente de IA es un sistema que recibe un objetivo, razona sobre cómo conseguirlo y ejecuta acciones de forma autónoma — consultando sistemas, tomando decisiones y actuando sin que un humano tenga que guiarlo paso a paso.

La diferencia crítica con un chatbot o un asistente convencional es la capacidad de ejecutar. Un chatbot responde. Un agente actúa. Un agente puede crear un pedido en el ERP, enviar un email, abrir un ticket o actualizar una base de datos — no solo generar texto sobre cómo hacerlo.

Un agente bien diseñado tiene: una identidad clara (quién es y cómo se comporta), un objetivo concreto (qué cuenta como "trabajo terminado"), herramientas disponibles (qué acciones puede ejecutar), restricciones duras (qué nunca puede hacer) y un mecanismo de escalación (cuándo parar y pedir ayuda humana).

Ejemplo en distribución B2B: un agente de pedidos recibe un PDF por email, extrae los datos, valida las referencias contra el ERP, crea el pedido y notifica al cliente — sin intervención humana en los casos estándar.

Orquestación

Orchestration / Agentic Orchestration

La orquestación es el mecanismo que coordina múltiples agentes especializados para que trabajen juntos de forma coherente. En un sistema bien orquestado, cada agente hace su parte, escribe el resultado en una base de datos central y el siguiente agente arranca cuando el anterior termina.

La orquestación autónoma implica que esta coordinación ocurre sin intervención humana en la mayoría de los pasos. Los agentes no se llaman entre sí directamente — el orquestador (un sistema como Trigger.dev, n8n o Celery) escucha cambios de estado y activa al siguiente agente en el momento adecuado.

Esto garantiza resiliencia (si un agente falla, el proceso se retoma desde donde se quedó), trazabilidad (cada transición de estado queda registrada) y desacoplamiento (los agentes no necesitan conocerse entre sí).

Ejemplo: en Kelmia Offers, la orquestación coordina el agente que construye el perfil del cliente, el que busca gemelos, el que selecciona productos y el que calcula precios — cada uno activado automáticamente cuando el anterior termina.

Human-in-the-loop

HITL

El human-in-the-loop (HITL) es el mecanismo por el que un sistema de agentes se detiene en puntos específicos para pedir validación o aprobación humana antes de continuar. No es un fallo del sistema — es una decisión de diseño que define qué decisions requieren criterio humano y cuáles no.

Un buen HITL se activa cuando: la acción tiene consecuencias financieras directas, la acción es irreversible, la acción afecta a la reputación del cliente o el agente detecta algo fuera del patrón habitual. El agente no adivina — escala con contexto completo.

El HITL no es una limitación del sistema. Es el producto. Un sistema que sabe cuándo preguntar genera más confianza que uno que actúa a ciegas.

Ejemplo: en Kelmia Offers, el comercial siempre aprueba la oferta antes de que salga. El sistema genera la propuesta completa en segundos — el humano revisa, ajusta si lo ve necesario, y aprueba. El envío al cliente es siempre responsabilidad del comercial.

RAG

Retrieval-Augmented Generation

RAG es una técnica que combina un modelo de lenguaje (LLM) con una base de conocimiento externa. En lugar de depender únicamente de lo que el modelo aprendió durante su entrenamiento, el sistema busca información relevante en tiempo real en documentos, bases de datos o catálogos — y la inyecta en el contexto del modelo antes de generar la respuesta.

Para empresas B2B, RAG es la base de los asistentes de producto, los sistemas de búsqueda semántica en catálogos y cualquier aplicación donde el modelo necesita responder con información específica y actualizada de la empresa — no con conocimiento general.

La diferencia entre un RAG bien implementado y uno mediocre está en cómo se indexa la información. Una ficha técnica fragmentada en chunks pierde contexto. Una ficha completa como unidad de recuperación preserva el significado.

Ejemplo: Kelmia Products usa RAG para que el asistente de catálogo responda preguntas como "¿tenéis guantes sin polvo para contacto alimentario en caja de 100?" — consultando el catálogo real del distribuidor, no un conocimiento genérico sobre guantes.

Digital Worker

Un digital worker es un agente de IA diseñado para ejecutar un rol operativo completo dentro de una empresa — no tareas aisladas, sino flujos enteros. Un worker de pedidos procesa pedidos de principio a fin. Un worker de facturación gestiona el ciclo completo de aprobación y contabilización.

La diferencia con la automatización tradicional (RPA, scripts) es la capacidad de tomar decisiones con contexto. Un script sigue instrucciones. Un digital worker razona: ante información incompleta, aplica lógica de negocio; ante una anomalía, escala; ante una excepción, decide.

Los digital workers no reemplazan al equipo humano — concentran su atención. El equipo deja de gestionar el día a día rutinario y se concentra en las excepciones, las decisiones estratégicas y las relaciones con clientes.

Ejemplo: un distribuidor B2B con 300 pedidos diarios por email y PDF. El digital worker los procesa en segundos, valida condiciones de cada cliente y crea el pedido en el ERP. El equipo humano solo interviene cuando hay una excepción real.

GaaS

Agentic as a Service

GaaS es un modelo de servicio en el que una empresa opera un sistema de agentes de forma continua para un cliente — y el cliente recibe el valor directamente, sin necesidad de aprender una herramienta ni configurar nada.

La diferencia con el SaaS tradicional es fundamental: en un SaaS, el cliente usa la herramienta. En GaaS, el sistema trabaja para el cliente. El cliente no entra a un dashboard a generar análisis — recibe los análisis cuando son relevantes, aprueba los planes cuando requieren su criterio y hace seguimiento cuando hay algo que reportar.

La métrica de éxito cambia radicalmente. En SaaS se mide DAU (usuarios activos diarios). En GaaS se mide impacto operativo real: reducción de incidencias, tiempo ahorrado, margen mejorado.

Ejemplo: Kelmia Pulse opera como GaaS. El sistema analiza las operaciones del cliente cada semana, detecta patrones y propone planes de acción. El cliente no configura nada — recibe, decide y hace seguimiento.

LLM

Large Language Model · Modelo de Lenguaje Grande

Un LLM es un modelo de inteligencia artificial entrenado sobre grandes volúmenes de texto para comprender y generar lenguaje natural. Claude, GPT, Gemini y Llama son ejemplos de LLMs.

En el contexto de sistemas de agentes empresariales, el LLM es el motor de razonamiento — el componente que interpreta la información, toma decisiones y genera respuestas. Pero un LLM solo no es un sistema operativo. Necesita herramientas, memoria, orquestación y restricciones para funcionar de forma fiable en producción.

No todos los LLMs son iguales para todos los usos. Los modelos más potentes (Claude Opus, GPT-4) son mejores para decisiones estratégicas complejas. Los modelos más ligeros (Haiku, modelos locales) son más eficientes para tareas de alto volumen y bajo riesgo. Usar el modelo correcto para cada tarea es una decisión de arquitectura, no de preferencia.

MCP

Model Context Protocol

MCP es un protocolo estándar abierto, desarrollado por Anthropic, que permite a los modelos de IA conectarse con sistemas externos de forma estandarizada. Es el equivalente a USB para la IA: un conector universal que hace posible que cualquier asistente de IA (Claude, ChatGPT, Gemini) acceda a datos y ejecute acciones en sistemas externos sin necesidad de integraciones a medida para cada combinación.

Para empresas, MCP significa que su equipo puede usar el asistente de IA que prefiera y conectarlo con sus sistemas — ERP, CRM, catálogo — a través de un único punto de integración. Sin copiar y pegar datos entre aplicaciones. Sin perder el control de qué datos salen.

Ejemplo: Kelmia Connect usa MCP para que Claude acceda en tiempo real al ERP de un distribuidor. El comercial escribe en el chat de Claude y recibe datos reales del ERP — sin salir de Claude, sin exportar a Excel.

Pipeline de agentes

Agent Pipeline / Multi-agent Pipeline

Un pipeline de agentes es una cadena de agentes especializados que trabajan en secuencia, donde el output de cada agente es el input del siguiente. Cada agente hace una cosa y la hace bien — en lugar de un agente generalista que intenta hacer todo.

La especialización es la clave. Un agente que construye perfiles de clientes es mejor en eso que uno que también intenta seleccionar productos y calcular precios. La especialización mejora la calidad, facilita el mantenimiento y permite reemplazar o mejorar un agente sin afectar al resto.

Un pipeline bien diseñado es resiliente: si un agente falla, el estado queda guardado en la base de datos y el proceso puede retomarse desde donde se quedó — sin perder trabajo ni empezar desde cero.

Estado persistente

Persistent State

El estado persistente es el mecanismo por el que un sistema de agentes recuerda lo que ocurrió entre ejecuciones. Los LLMs no tienen memoria entre conversaciones — cada ejecución empieza desde cero. El estado persistente resuelve esto guardando el contexto relevante en una base de datos externa.

En la práctica, esto significa que un agente que ejecuta hoy sabe lo que ocurrió ayer — qué decisiones se tomaron, qué datos se procesaron, qué planes están activos. El sistema no empieza de cero en cada ciclo — acumula contexto y mejora con el tiempo.

El estado persistente también garantiza resiliencia: si el servidor cae a mitad de una ejecución, el proceso puede retomarse exactamente desde donde se quedó, sin pérdida de datos ni trabajo duplicado.

Embedding

Vector Embedding

Un embedding es una representación numérica de un texto (o imagen, o documento) en un espacio vectorial de alta dimensión. Textos con significados similares tienen embeddings cercanos en ese espacio — lo que permite buscar por similitud semántica en lugar de por palabras clave exactas.

Para empresas B2B, los embeddings son la base de la búsqueda semántica en catálogos, la identificación de clientes similares y cualquier sistema que necesite encontrar "lo más parecido" a algo. La búsqueda por palabras clave falla con sinónimos, errores tipográficos y descripciones informales. La búsqueda por embeddings entiende el significado.

Ejemplo: Kelmia Offers usa embeddings para encontrar clientes "gemelos" — empresas con perfil similar en la cartera del distribuidor, aunque usen terminología distinta para describir su negocio.

GEO

Generative Engine Optimization

GEO es la disciplina de optimizar el contenido para que los modelos de IA generativos (ChatGPT, Claude, Perplexity, Gemini) lo encuentren, lo entiendan y lo citen como fuente de referencia en sus respuestas. Es el equivalente del SEO para la era de la búsqueda conversacional.

Mientras el SEO tradicional optimiza para que Google muestre tu página en los resultados de búsqueda, el GEO optimiza para que cuando alguien le pregunte a una IA sobre un tema relacionado con tu negocio, la IA cite tu contenido o recomiende tu solución.

Los factores que más influyen en GEO son: estructura semántica clara, definiciones explícitas, datos verificables, autoría reconocible y contenido que responde preguntas concretas — no contenido genérico de relleno. Los glosarios, guías técnicas y casos de uso son el formato con mejor rendimiento GEO.

Fine-tuning

Fine-tuning · Ajuste fino

El fine-tuning es el proceso de entrenar adicionalmente un modelo de lenguaje base con datos específicos de un dominio o empresa, para que adopte un estilo, terminología o comportamiento concreto. Es como la formación especializada de un empleado que ya tiene una educación general.

Para la mayoría de casos de uso empresariales, el fine-tuning no es necesario — y a menudo es contraproducente. Es caro, requiere datos de calidad en volumen, y los beneficios suelen conseguirse de forma más eficiente con RAG bien implementado y prompts bien diseñados.

El fine-tuning tiene sentido cuando necesitas un estilo muy específico, una terminología muy técnica que el modelo base no maneja bien, o cuando el volumen de inferencia es tan alto que la eficiencia del modelo base importa. En todos los demás casos, RAG + buen prompt engineering es la respuesta correcta.

Alucinación

Hallucination

Una alucinación es cuando un modelo de IA genera información que parece correcta y está presentada con confianza, pero es falsa o inventada. El modelo no "sabe que no sabe" — produce texto plausible aunque no tenga evidencia real para respaldarlo.

Las alucinaciones son el riesgo más crítico en sistemas de IA operativos. Un dato inventado en una oferta comercial, un precio incorrecto en un pedido o una referencia equivocada en una factura tienen consecuencias reales y costosas.

La forma correcta de gestionar las alucinaciones no es esperar que el modelo "mejore" con el tiempo — es diseñar el sistema para que el modelo nunca tenga que inventar. Un agente bien diseñado solo responde con información que está en su contexto. Si no tiene el dato, dice que no lo tiene.

Ejemplo: el asistente de Kelmia Products responde explícitamente "No encuentro en el catálogo productos que cumplan exactamente estos criterios" cuando no hay resultados — en lugar de recomendar un producto que no existe o que no cumple los requisitos.

Herramienta

Tool / Function Calling

Una herramienta es una acción que un agente puede ejecutar en el mundo real — consultar una API, escribir en una base de datos, enviar un email, crear un pedido en el ERP. Las herramientas son lo que convierte al LLM de un generador de texto en un agente que actúa.

Un agente bien diseñado tiene una lista explícita y cerrada de herramientas disponibles. Fuera de esa lista, el agente no puede hacer nada. Esto garantiza que el sistema sea predecible y auditable — y elimina el riesgo de que el agente ejecute acciones no autorizadas.

El principio de mínimo privilegio aplica igual que en seguridad informática: cada agente tiene acceso solo a las herramientas que necesita para su función, no a todo el sistema.

Ventana de contexto

Context Window

La ventana de contexto es la cantidad máxima de información que un LLM puede procesar en una sola ejecución — el equivalente a la "memoria de trabajo" del modelo. Todo lo que el modelo necesita saber para responder tiene que caber en esa ventana.

Para sistemas de agentes empresariales, la gestión del contexto es una decisión de arquitectura crítica. Cargar demasiada información aumenta el coste y puede degradar la calidad. Cargar demasiado poca significa que el agente toma decisiones sin la información necesaria.

La solución es cargar exactamente el contexto relevante para cada ejecución — no todo el historial. Un agente que analiza incidencias de las últimas 8 semanas no necesita el historial de los últimos 3 años.

Soberanía de datos

Data Sovereignty

La soberanía de datos es el control que una empresa tiene sobre dónde se procesan, almacenan y transmiten sus datos — especialmente cuando usa servicios de IA externos. En el contexto de la IA generativa, implica decidir qué datos pueden salir a APIs externas y cuáles deben procesarse localmente.

Para empresas B2B, los datos más sensibles son: márgenes y condiciones comerciales, datos de clientes con CIFs e importes, estrategias de pricing y datos sujetos a regulación sectorial. Estos datos no deberían procesarse en APIs externas sin anonimización previa.

Los niveles de soberanía van desde el uso de APIs externas bajo acuerdos de protección de datos (Standard), hasta la anonimización de datos identificables antes de salir (Privacy), hasta el procesamiento completo en infraestructura propia sin APIs externas (Sovereign).

RGPD e IA

GDPR and AI

El Reglamento General de Protección de Datos (RGPD) establece obligaciones sobre cómo las empresas recogen, procesan y almacenan datos personales de ciudadanos europeos. Con la IA, estas obligaciones se extienden a cómo se usan esos datos para entrenar modelos o generar respuestas.

Los puntos más relevantes para empresas B2B que usan IA son: la base legal para el procesamiento (consentimiento o interés legítimo), el derecho al olvido (un modelo que ha "aprendido" datos de un cliente puede ser difícil de "desaprender"), la transparencia sobre el uso de IA en decisiones automatizadas y la localización del procesamiento de datos.

La forma más segura de usar IA generativa con datos personales es garantizar que los datos identificables nunca llegan al modelo externo — ya sea anonimizándolos antes de salir o procesándolos en infraestructura propia dentro de la UE.