Related MCP Server Resources

Explore more AI models, providers, and integration options:

  • Explore AI Models
  • Explore AI Providers
  • Explore MCP Servers
  • LangDB Pricing
  • Documentation
  • AI Industry Blog
  • MCP Server
  • MCP Server for ArangoDB
  • Xano MCP Server for Smithery
  • OpenSearch MCP Server
  • Solana Agent Kit MCP Server
Back to MCP Servers
MCP Server Demo

MCP Server Demo

Public
IgnacioFucksmann/MCP-SERVER-DEMO

A Python-based Model Context Protocol server with Streamlit chat interface that allows users to manage a PostgreSQL database through both web UI and MCP tools, powered by Ollama for local LLM integration.

Verified
python
0 tools
May 29, 2025
Updated May 30, 2025

MCP Server Demo con Streamlit y Ollama

Este proyecto es una demo de un servidor MCP (Model Context Protocol) en Python, integrado con una interfaz de chat web hecha en Streamlit y un modelo de lenguaje local usando Ollama. Permite gestionar usuarios en una base de datos PostgreSQL (agregar, eliminar, modificar, consultar) tanto desde el chat como desde herramientas MCP externas.

Características

  • Chat web con Streamlit.
  • LLM local usando Ollama (Llama 3 u otro modelo compatible).
  • Servidor MCP con herramientas para CRUD de usuarios.
  • Base de datos PostgreSQL para almacenar usuarios.
  • Integración flexible: puedes usar solo el chat, solo el servidor MCP, o ambos.

Requisitos

  • Python 3.9+
  • PostgreSQL corriendo y accesible
  • Ollama instalado y corriendo (para LLM local)
  • Entorno virtual (recomendado)
  • Las dependencias del archivo requirements.txt

Instalación

  1. Clona el repositorio:

    git clone https://github.com/tu-usuario/mcp-server-demo.git cd mcp-server-demo
  2. Crea y activa un entorno virtual:

    python -m venv .venv source .venv/bin/activate # En Linux/Mac .venv\\Scripts\\activate # En Windows
  3. Instala las dependencias:

    pip install -r requirements.txt
  4. Configura tu base de datos PostgreSQL y ajusta los datos de conexión en server.py.

  5. (Opcional) Crea un archivo .env si usas claves de API.

Uso

1. Levanta Ollama y el modelo LLM

ollama run llama3

2. Levanta el chat de Streamlit

streamlit run streamlit.py

Abre el navegador en http://localhost:8501.

3. (Opcional) Levanta el servidor MCP

mcp run server.py

o

uv run --with mcp mcp run server.py

Funcionalidades del chat

  • Agregar usuario:
    Escribe: agregar usuario Juan juan@mail.com clave123
  • Eliminar usuario:
    Escribe: eliminar usuario juan@mail.com
  • Modificar usuario:
    Escribe: modificar usuario juan@mail.com nombre=Juan Perez contraseña=nuevaClave
  • Consultar usuarios:
    Escribe: consultar usuarios o consultar usuario juan@mail.com
  • Conversación libre:
    Si el mensaje no es una acción, responde la LLM local.

Créditos

  • Streamlit
  • Ollama
  • psycopg2
  • Model Context Protocol (MCP)

¡Contribuciones y sugerencias son bienvenidas!

Publicly Shared Threads0

Discover shared experiences

Shared threads will appear here, showcasing real-world applications and insights from the community. Check back soon for updates!

Share your threads to help others
Related MCPs5
  • MCP Server
    MCP Server

    This TypeScript-based MCP server allows users to manage a simple notes system through creating and s...

    Added May 30, 2025
  • MCP Server for ArangoDB
    MCP Server for ArangoDB

    A TypeScript-based server to interact with ArangoDB using the Model Context Protocol, enabling datab...

    7 tools
    Added May 30, 2025
  • Xano MCP Server for Smithery
    Xano MCP Server for Smithery

    A Model Context Protocol server that enables Claude AI to interact with Xano databases, providing co...

    Added May 30, 2025
  • OpenSearch MCP Server
    OpenSearch MCP Server

    A Model Context Protocol server implementation that enables natural language interactions with OpenS...

    6 tools
    Added May 30, 2025
  • Solana Agent Kit MCP Server
    Solana Agent Kit MCP Server

    A Model Context Protocol server that enables Claude AI to interact with the Solana blockchain throug...

    Added May 30, 2025