El nuevo paradigma Agentic AI: programación para IA, tool calling y autocorrección en agentes
Analizamos cómo programamos para IA que invoca funciones IA, diferenciamos LLMs como funciones y tool calling, y explicamos el autocorrector en agentes Agentic AI.
El nuevo paradigma Agentic AI: programación para IA, tool calling y autocorrección en agentes
Recientemente, en la conferencia FronteraFutura, conversaba con colegas sobre el cambio radical que enfrentamos como desarrolladores con la llegada de Agentic AI. En mi equipo tenemos dos desarrolladores especializados en IA y constatamos que ya no programamos para humanos, sino que diseñamos funciones para que modelos LLM las invoquen y respondan al usuario final.
Una plataforma que ejemplifica este paradigma es Dify, donde las funciones para agentes se crean mediante workflows que combinan código y modelos LLM. Esto significa que tenemos IA (agentes) que invocan funciones que a su vez utilizan IA como función. Por ejemplo, la función Parameter Extractor es un LLM configurado para extraer parámetros estructurados siguiendo instrucciones precisas.
¿Qué es Agentic AI y cómo se diferencia de un chatbot?
Agentic AI son agentes inteligentes capaces de tomar decisiones autónomas, planificar, ejecutar múltiples pasos y adaptarse mediante aprendizaje continuo. A diferencia de un chatbot clásico, que solo responde texto plano, un agente IA puede invocar funciones, interactuar con herramientas externas y corregirse a sí mismo para mejorar resultados. Los chatbots son reactivos y limitados a interacciones lineales, mientras que los agentes Agentic AI son proactivos y modulares.
Uso de LLMs como funciones programables
En este paradigma, los LLMs dejan de ser solo generadores de texto para convertirse en funciones programables que reciben múltiples parámetros, contexto y estado, y devuelven respuestas estructuradas en formatos como JSON para su fácil interpretación automática.
{
'function_call': 'extract_parameters',
'arguments': {
'user_name': 'Ana Pérez',
'request': 'Estado del proyecto',
'priority': 'alta'
}
}
Este formato es crucial para que otros agentes o sistemas puedan parsear el resultado y continuar con flujos automatizados sin ambigüedad.
Diferencia con Tool Calling
LLMs como funciones se refiere a usar modelos de lenguaje como bloques funcionales que procesan y devuelven datos dentro del sistema. Tool calling es la capacidad del agente para invocar herramientas externas o APIs, permitiendo ampliar sus capacidades para tareas específicas.
Estos dos conceptos pueden coexistir: un agente puede usar LLMs programables internamente y además llamar herramientas externas mediante tool calling para resolver problemas complejos.
El ciclo de autocorrección en agentes IA
Una característica poderosa de los agentes Agentic AI es su habilidad para invocar funciones, detectar errores y corregirse autónomamente. Si una función llamada genera un resultado incorrecto o subóptimo, el agente puede:
- Detectar el error mediante excepciones, códigos o resultados inesperados.
- Reflexionar y analizar lo que salió mal.
- Modificar su plan o inputs para llamar nuevamente a la función con parámetros ajustados.
Esto genera bucles de retroalimentación que permiten una mejora continua sin intervención humana directa.
Ejemplo de función IA retornando JSON y ciclo autocorrectivo
{
'role': 'system',
'text': 'Eres un agente IA que extrae parámetros y llama a funciones. Si detectas error, corrígelo y vuelve a intentar.',
'function_call': 'extract_parameters',
'arguments': {
'input_text': 'Quiero reservar una cita con Carlos el viernes a las 10am',
'criteria': ['nombre', 'fecha', 'hora']
},
'on_error': {
'action': 'retry',
'adjustment': 'Cambiar la fecha a sábado si viernes no está disponible'
}
}
En este caso, el agente primero extrae parámetros, si reserva no es posible, ajusta y vuelve a llamar a la función para lograr el objetivo.