Enables natural language interpretation using Google's Gemini model combined with external tool integration via Model Context Protocol to process and calculate mathematical expressions through a local tool server.
Unlock the full potential of Math Expression MCP Server through LangDB's AI Gateway. Get enterprise-grade security, analytics, and seamless integration with zero configuration.
Free tier available • No credit card required
Este projeto demonstra como criar um chain com LangChain usando o modelo gemini-2.0-flash do Google e integrá-lo com ferramentas customizadas usando o MCP (Multi-Chain Protocol), via conexão stdio
.
A chain é capaz de:
pip
tradicional)uv venv source .venv/bin/activate uv pip install -r requirements.txt
python -m venv .venv source .venv/bin/activate pip install -r requirements.txt
GOOGLE_API_KEY=sua_chave_google_api
Primeiro, execute o servidor de ferramentas. Este servidor vai processar as expressões matemáticas.
python server.py
Em seguida, execute o cliente, que se conecta ao servidor e faz as requisições, passando a pergunta para a chain e recebendo o resultado do cálculo.
python client.py
Discover shared experiences
Shared threads will appear here, showcasing real-world applications and insights from the community. Check back soon for updates!