Este workflow implementa un chatbot RAG (Retrieval Augmented Generation) que se integra con Bitrix24 a través de webhooks. El flujo comienza con un webhook de Bitrix24 (nodo ‘Bitrix24 Handler’) que recibe mensajes de usuario. Tras validar el token (nodo ‘Validate Token’), el workflow enruta el evento a diferentes funciones según el tipo de mensaje (nodo ‘Route Event’). Para mensajes de texto, se procesa el mensaje (nodo ‘Process Message’), se realiza una búsqueda en un vector store (Qdrant) usando embeddings de Ollama (nodos ‘Embeddings Ollama’, ‘Qdrant Vector Store’, ‘Vector Store Retriever’), y se genera una respuesta con el modelo de lenguaje Google Gemini (nodos ‘Google Gemini Chat Model’, ‘Question and Answer Chain’). La respuesta se envía de vuelta a Bitrix24 (nodo ‘Send Message’). El workflow también maneja eventos de ‘join’, ‘install’ y ‘delete’ de Bitrix24, realizando las acciones correspondientes. Adicionalmente, incluye una funcionalidad para cargar archivos desde Bitrix24, procesarlos con un splitter de texto, generar embeddings y almacenarlos en el vector store para su posterior consulta. Los nodos ‘httpRequest’ se usan para interactuar con la API de Bitrix24 para registrar el bot, enviar mensajes y gestionar archivos.
- Integración completa con la API de Bitrix24 para recibir y enviar mensajes.
- Implementación de un sistema RAG usando embeddings de Ollama y el modelo de lenguaje Google Gemini.
- Manejo de diferentes tipos de eventos de Bitrix24 (mensajes, join, install, delete).
- Capacidad para cargar, procesar y almacenar archivos en un vector store para búsqueda contextual.
- Uso de Qdrant como vector store para la búsqueda eficiente de información.






