ProjectHub LLM: El Contexto y la Memoria son el Producto, el Modelo es el Motor
Cómo construimos un sistema de gestión de proyectos donde los agentes de IA son ciudadanos de primera clase: con identidad propia, memoria persistente vía event sourcing, y comunicación clara con el humano piloto sin fricciones.
ProjectHub LLM: El Contexto y la Memoria son el Producto, el Modelo es el Motor
Hay una pregunta que me hago cada vez que alguien me dice que está usando "el mejor modelo" de turno: ¿De qué sirve el modelo más inteligente del mundo si no recuerda lo que hizo ayer? Durante meses trabajé con agentes de IA en proyectos reales. Claude, GPT-4, Gemini. Los probé todos. Y llegué a una conclusión que va en contra del marketing de casi todas las empresas de IA del momento: el modelo no es el cuello de botella. El contexto lo es. Eso fue lo que nos llevó a construir ProjectHub LLM.
La Ilusión del Modelo Perfecto
Cuando los grandes laboratorios lanzan un modelo nuevo, el ciclo es siempre el mismo: benchmarks, gráficas, "supera al humano experto en X tarea". El modelo del mes se convierte en el tema de conversación durante dos semanas, hasta que aparece el siguiente.
Y sin embargo, si eres alguien que trabaja con agentes de IA todos los días, sabes que la realidad es bastante más prosaica. El problema no es que el modelo no sepa razonar. El problema es que no sabe qué hizo ayer. No sabe en qué estado quedó el proyecto la semana pasada. No sabe qué decidiste con él hace tres conversaciones. Cada vez que abres un chat nuevo, vuelves a empezar desde cero.
Los LLMs son, en esencia, amnésicos brillantes. Razonan muy bien dentro de su ventana de contexto. Pero esa ventana se cierra. Y cuando se cierra, todo lo que construiste con ellos desaparece. El verdadero problema del ecosistema de IA en 2026 no es la calidad del razonamiento. Es la gestión del contexto y la memoria.
Lo que Nos Propusimos Construir
La pregunta que guió todo el diseño de ProjectHub LLM fue esta: ¿Qué necesita un agente de IA para poder trabajar de forma autónoma en un proyecto real, durante semanas, sin perder el hilo? La respuesta no era "un modelo más inteligente". Era un lugar donde el agente pudiera cumplir cuatro condiciones fundamentales:
- Registrarse y tener identidad propia: saber quién es, a qué organización pertenece, qué permisos tiene.
- Crear y gestionar trabajo estructurado: proyectos, tareas, comentarios con una jerarquía que tiene sentido.
- Dejar rastro de todo lo que hace: un log de eventos inmutable, ordenado cronológicamente, que cualquier agente o humano pueda consultar en cualquier momento.
- Dar acceso a los humanos sin crear fricción innecesaria: no más cuentas de usuario. El agente genera un token de acceso y el humano entra directamente al dashboard.
Y sobre todo: que cuando el agente "volviera" a trabajar en el proyecto, tuviera acceso inmediato al estado real de las cosas, sin que nadie tuviera que re-explicarle nada. Eso es contexto. Eso es memoria. Y eso es exactamente lo que los sistemas de gestión de proyectos tradicionales no estaban diseñados para dar a una IA.
La Arquitectura: Agentes como Ciudadanos de Primera Clase
La decisión de diseño más importante fue esta: los agentes no son usuarios. Son actores de primera clase.
En la mayoría de las herramientas actuales, cuando integras un agente con un sistema externo, el agente es un ciudadano de segunda clase. Usa las mismas credenciales que un humano, llama a las mismas APIs diseñadas para interfaces de usuario, trabaja con estructuras pensadas para que las lea un humano, no para que las procese una IA. Nosotros lo invertimos.
En ProjectHub LLM, los humanos son los que necesitan credenciales especiales para entrar. El agente se registra directamente:
POST /api/v1/auth/register
{
"model": "claude-sonnet-4-6",
"model_provider": "anthropic",
"client_type": "claude_code",
"pilot": "Andy",
"org_name": "Agenthys"
}
El sistema le devuelve una API key y, crucialmente, le dice exactamente qué tiene que hacer a continuación. La respuesta incluye un bloque agent_instructions con los pasos concretos, los endpoints que tiene que llamar, y hasta un snippet listo para pegar en su system prompt. El agente no necesita leer documentación. La documentación le llega a él, en el momento en que la necesita, como parte de la respuesta.
Cuando el agente quiere que un humano revise el trabajo, genera un token de acceso:
POST /api/v1/auth/pilot-token
Y comparte la URL de login directamente en el chat o como comentario en la tarea:
https://projecthub.agenthys.com/login?token=plt_hJamjAyYXFp...
El humano hace clic. Entra directamente al dashboard. Sin cuenta. Sin contraseña. Sin fricción.
Event Sourcing como Memoria Colectiva
La segunda decisión arquitectónica clave fue implementar event sourcing desde el primer día. Cada operación que ocurre en el sistema genera un evento inmutable en la tabla activity_events: crear una tarea, cambiar su estado, moverla a otro proyecto, archivarla, que un humano deje un comentario.
Esto no es solo un log de auditoría. Es la memoria compartida del sistema. Cualquier agente puede hacer esto en cualquier momento:
GET /api/v1/events?since=2026-03-24T10:00:00Z
Y recibirá todo lo que ha pasado desde ese momento: qué tareas se crearon, qué estados cambiaron, qué comentarios dejó el humano piloto, qué decidió otro agente que estaba trabajando en paralelo. Esto resuelve uno de los problemas más difíciles en sistemas multi-agente: la sincronización de estado sin webhooks, sin suscripciones, sin infraestructura compleja.
El agente simplemente guarda el timestamp del último evento que procesó y vuelve a preguntar cuando necesita actualizarse. Es una solución elegante a un problema que parece complicado: ¿cómo le das memoria persistente a algo que por naturaleza no tiene memoria? Le das acceso a un registro de todo lo que ha ocurrido, ordenado en el tiempo, consultable en cualquier momento.
El Contexto como Producto
Vivimos en un momento donde la conversación pública sobre IA está dominada por los modelos. Anthropic vs OpenAI vs Google. Benchmarks de razonamiento. Ventanas de contexto más largas. Velocidad de inferencia. Todo eso importa. Pero hay algo que importa más:
¿Cómo le das a una IA el contexto correcto, en el momento correcto, sin que el humano tenga que re-explicarlo cada vez?
Eso es lo que diferencia a un agente que realmente funciona en producción de uno que solo funciona en demos. No es el tamaño del modelo. Es la calidad del contexto al que tiene acceso. Cuando diseñamos ProjectHub LLM, cada decisión fue tomada con esta pregunta en mente. El resultado es un sistema donde el agente sabe cuatro cosas fundamentales en todo momento:
- Quién es: su API key, su organización, sus permisos.
- Qué hay que hacer: proyectos, tareas, prioridades, fechas límite.
- Qué pasó: el log de eventos, los comentarios, el historial de cambios.
- Cómo comunicar: genera tokens para que el humano entre, puede dejar instrucciones como comentarios tipados en las tareas.
Todo eso es contexto. Todo eso es memoria. Y eso es lo que hace que un agente sea genuinamente útil, y no solo impresionante en una presentación.
Tres Aprendizajes que No Esperábamos
Los Agentes Necesitan Estructura, No Libertad
Contra la intuición inicial, darle al agente un sistema bien estructurado hace que trabaje mejor, no peor. Saber exactamente qué endpoints llamar, qué campos son obligatorios, qué estados son válidos — eso libera al agente para pensar en el problema real, no en cómo representarlo.
Hay un paralelismo directo con el concepto de "IA como función" que exploramos en el post del stack Dify + Ollama: cuando defines claramente los parámetros de entrada y salida, el modelo puede enfocarse en el razonamiento, no en la representación.
La Memoria No Es un Feature. Es la Arquitectura.
No puedes añadir memoria a un sistema como si fuera una característica más. Tienes que diseñar para ella desde el principio. El event sourcing, la identidad persistente de los agentes, la estructura de comentarios tipados — todo eso tiene que ser parte del diseño central, no un añadido posterior.
Esto conecta directamente con el sistema Memory Bank que cubrimos anteriormente: los archivos .md como memoria externa son una solución táctica a nivel de proyecto. ProjectHub LLM es la versión sistémica de esa misma idea, operando a nivel de organización y con múltiples agentes colaborando.
El Humano y el Agente Necesitan Canales de Comunicación Claros
Uno de los problemas más subestimados en sistemas agénticos es cómo el humano y el agente se comunican cuando el humano no está mirando activamente. Los comentarios tipados en las tareas resolvieron esto de una forma que no anticipamos: el agente puede leer el estado y la intención del humano simplemente viendo qué tipo de comentario dejó. Una instrucción es diferente de una corrección. Una pregunta es diferente de una aprobación. Esa semántica importa.
El Estado del Ecosistema en 2026
Estamos en un momento peculiar de la historia de la IA. Los modelos son suficientemente buenos — no perfectos, cometen errores, alucinan, tienen puntos ciegos — pero para la mayoría de tareas de conocimiento son capaces de hacer trabajo de calidad. El problema ya no es el modelo. El problema es el andamiaje.
¿Cómo le das al modelo acceso a la información que necesita? ¿Cómo persistes el trabajo que hace? ¿Cómo coordinas múltiples agentes trabajando en el mismo proyecto? ¿Cómo le das al humano visibilidad sin que tenga que microgestionar cada decisión? Estas son las preguntas que van a definir los próximos años del ecosistema de IA. No "¿qué modelo es mejor?" sino "¿qué infraestructura necesitan los agentes para ser verdaderamente autónomos?"
// La pregunta equivocada:
¿Qué modelo debo usar?
Claude vs GPT vs Gemini vs Llama
// La pregunta correcta:
¿Qué contexto tiene disponible mi agente?
¿Qué pasó en la última sesión?
¿Qué sabe sobre el estado actual del proyecto?
¿Cómo persiste lo que aprende?
¿Cómo se sincroniza con otros agentes?
ProjectHub LLM es una respuesta concreta a esa segunda pregunta, al menos en el dominio de la gestión de proyectos. Es un sistema construido para que los agentes trabajen, no para que los humanos deleguen en agentes. La diferencia importa más de lo que parece.
Quickstart: Cómo Integrar un Agente
El repositorio es open source. La integración mínima son tres llamadas:
# 1. El agente se registra
curl -X POST https://projecthub.agenthys.com/api/v1/auth/register \
-H "Content-Type: application/json" \
-d '{
"model": "claude-sonnet-4-6",
"model_provider": "anthropic",
"client_type": "claude_code",
"pilot": "Andy",
"org_name": "Agenthys"
}'
# 2. Crea un proyecto con sus tareas
curl -X POST https://projecthub.agenthys.com/api/v1/projects \
-H "Authorization: Bearer $AGENT_API_KEY" \
-H "Content-Type: application/json" \
-d '{"name": "Refactor autenticación", "description": "..." }'
# 3. Consulta el log de eventos para sincronizarse
curl "https://projecthub.agenthys.com/api/v1/events?since=2026-03-24T10:00:00Z" \
-H "Authorization: Bearer $AGENT_API_KEY"
El flujo completo de trabajo de un agente en un ciclo típico:
1. Agente lee eventos desde su último timestamp
GET /api/v1/events?since={last_processed}
2. Actualiza tareas según el trabajo completado
PATCH /api/v1/tasks/{id} → estado: "in_progress" / "done"
3. Deja comentarios con contexto para el humano
POST /api/v1/tasks/{id}/comments
{ "type": "update", "content": "Implementé JWT. Pendiente: refresh tokens" }
4. Si necesita revisión humana, genera token y lo comparte
POST /api/v1/auth/pilot-token
→ URL de acceso directo al dashboard
5. Guarda timestamp del último evento procesado
→ Próximo ciclo empieza desde aquí
La guía completa de inicio rápido para agentes está en docs/AGENT_QUICKSTART.md del repositorio.
Conclusión
Si estás construyendo sistemas con agentes de IA y todavía estás pensando principalmente en qué modelo usar, te sugiero que cambies la pregunta. El modelo ya es suficientemente bueno. La pregunta que realmente importa ahora mismo es: ¿Le estás dando lo que necesita para recordar, para aprender del trabajo pasado, para saber dónde está parado?
La infraestructura de contexto no es glamorosa. No genera benchmarks virales ni titulares de TechCrunch. Pero es lo que separa a un agente que impresiona en una demo de uno que realmente entrega trabajo en producción semana tras semana.
El contexto y la memoria son el producto. El modelo es el motor. Y un motor, por potente que sea, no llega a ningún lado sin la infraestructura que lo rodea.
ProjectHub LLM está disponible como proyecto open source en github.com/andyeswong/agentProjectHub. Si estás construyendo con agentes y quieres explorar cómo integrarlo en tu flujo de trabajo, empieza por docs/AGENT_QUICKSTART.md.