Este workflow de n8n facilita la interacción con modelos de lenguaje grandes (LLMs) locales a través de la integración con Ollama. Cuando se recibe un mensaje de chat (a través del nodo ‘When chat message received’), este se envía al nodo ‘Ollama Chat Model’, que utiliza la API de Ollama para procesarlo. El nodo ‘Ollama Chat Model’ interactúa con el modelo LLM configurado en Ollama. La respuesta del modelo LLM se maneja a través del nodo ‘Chat LLM Chain’, completando el flujo de conversación. Este workflow está diseñado para una comunicación fluida y eficiente con LLMs locales, aprovechando las capacidades de procesamiento de n8n y la potencia de Ollama.
- Integración directa con la API de Ollama para gestionar LLMs locales.
- Flujo simple de procesamiento de mensajes: recepción, procesamiento y respuesta.
- Ideal para entornos donde se requiere control sobre los datos y la privacidad.
- Facilita la creación de chatbots personalizados con LLMs locales.
- Escalable para manejar múltiples conversaciones simultáneamente (aunque este workflow solo muestra una).






