Este workflow automatiza la carga de prompts desde un repositorio de GitHub para luego ser utilizados en un modelo de lenguaje grande (LLM). El proceso comienza con un trigger manual. Se lee un archivo desde un repositorio GitHub especificado. El contenido del archivo se extrae y se procesan las variables. Un nodo de código personalizado verifica la presencia de todas las variables del prompt. Si todas están presentes, se configura el prompt y se envía al modelo Ollama a través de un agente Langchain. Si falta alguna variable, el workflow se detiene con un error. Finalmente, el resultado del LLM se almacena. El workflow utiliza las integraciones de GitHub y Ollama, con procesamiento de texto y manejo de variables dentro de n8n.
- Automatiza la carga de prompts desde GitHub.
- Utiliza un agente Langchain para interactuar con el modelo Ollama.
- Valida la presencia de todas las variables en el prompt antes de ejecutar el LLM.
- Gestiona errores si faltan variables en el prompt.
- Almacena el resultado del modelo Ollama.






