A server that routes user questions to specialized agents (date, location, weather) or an LLM expert, with a simple Streamlit web interface for easy interaction.
Este proyecto implementa un servidor multi-agente que enruta preguntas del usuario a un modelo LLM o a agentes especializados (como fecha, ubicación, clima o un experto técnico). Incluye una interfaz web sencilla construida con Streamlit para facilitar su uso.
AgenteBase
para manejo uniforme de errores y respuestasMCP/
├── core/
│ ├── ollama_wrapper.py # Encapsula la lógica para interactuar con modelos LLM en Ollama
│ ├── context_loader.py # Carga contexto adicional desde base de datos u otras fuentes
│ └── router_llm.py # Router inteligente que decide qué agente usar en base a la consulta
├── agents/ # Carpeta que contiene todos los agentes disponibles del sistema
├── server/
│ ├── mcp_server.py # Punto central que gestiona los agentes registrados y el procesamiento de mensajes
│ └── api.py # Define la API REST usando FastAPI para comunicación con la GUI u otros clientes
├── gui/
│ ├── app.py # Aplicación Streamlit que actúa como interfaz gráfica del sistema
│ └── .streamlit/
│ └── secrets.toml # Archivo de configuración que contiene la URL del backend para la GUI
├── utils/
│ ├── db_utils.py # Funciones auxiliares para conectarse y consultar la base de datos SQLite
│ ├── agente_base.py # Clase base AgenteBase, común a todos los agentes personalizados
│ └── json_parser.py # Utilidad para dividir respuestas JSON en partes más manejables
├── database/
│ ├── context.db # Base de datos SQLite con información contextual para los agentes o el LLM
│ ├── comprobar_db.py # Script que valida la existencia y consistencia de la base de datos
│ └── create_db.py # Script para generar y poblar la base de datos desde cero
├── config.py # Archivo central de configuración del sistema (rutas, modelos, flags, etc.)
├── requirements.txt # Lista de dependencias de Python necesarias para ejecutar el proyecto
├── Dockerfile.backend # Dockerfile para construir el contenedor del backend (API + lógica de agentes)
├── Dockerfile.frontend # Dockerfile para construir el contenedor de la interfaz Streamlit
└── docker-compose.yml # Archivo para levantar los servicios frontend y backend de forma conjunta
git clone https://github.com/tu-usuario/MCP.git cd MCP
Dentro del directorio gui
, crea el archivo:
gui/.streamlit/secrets.toml
Con el siguiente contenido:
server_url = "http://backend:8000/process"
docker-compose up --build
Esto construirá y levantará dos contenedores:
http://localhost:8000
http://localhost:8501
8000
, 8501
).localhost
en secrets.toml
.Puedes ejecutar solo el backend si deseas integrarlo con otra interfaz:
docker build -f Dockerfile.backend -t mcp_backend . docker run -p 8000:8000 mcp_backend
En la interfaz web, puedes escribir preguntas como:
¿Qué día es hoy?
¿Dónde estoy?
¿Qué clima hace?
Explícame qué es Python
La aplicación decidirá si responder directamente o delegar la pregunta a un agente.
Agente | Función |
---|---|
FECHA | Devuelve la fecha y hora actuales |
UBICACION | Detecta la ciudad y país mediante IP |
CLIMA | Devuelve el clima en la ubicación actual |
El agente de clima ahora usa directamente el agente de ubicación para determinar coordenadas geográficas (lat
, lon
) y ciudad antes de consultar el clima, permitiendo respuestas adaptadas al lugar real del usuario. Esto mejora la modularidad y colaboración entre agentes.
from agentes.base import AgenteBase class AgenteEjemplo(AgenteBase): patrones = [r"expresiones.*clave", r"otra.*forma.*de.*preguntar"] def agente(self) -> dict: datos = {"respuesta": "Soy un agente de ejemplo"} return {"success": True, "data": datos}
Especifica los patrones para detectar preguntas relevantes.
Implementa agente()
que devuelve un dict con la clave success y data o error.
El agente usará automáticamente el LLM indicado para generar respuestas naturales basadas en su data.
Todos los agentes heredan de AgenteBase, lo que gestiona:
Errores estándar
Conversión de datos a respuesta natural vía LLM
El método agente() debe devolver un diccionario estructurado.
Cada agente especifica qué modelo de LLM utilizar (llm_simple
o llm_experto
).
Este proyecto está licenciado bajo MIT License.
Desarrollado por Alejandro Gómez Sierra.
Discover shared experiences
Shared threads will appear here, showcasing real-world applications and insights from the community. Check back soon for updates!