MCP与Ollama桥接工具
一个简单的Ollama到MCP服务器的桥接工具,支持多种LLM模型。
快速入门
- 安装依赖:
curl -LsSf https://astral.sh/uv/install.sh | sh git clone https://github.com/bartolli/mcp-llm-bridge.git cd mcp-llm-bridge uv venv source .venv/bin/activate uv pip install -e .
- 配置桥接工具:
修改
src/mcp_llm_bridge/main.py
文件,设置mcp_server_params
和llm_config
参数。 - 使用示例配置:
- 对于 Ollama:
llm_config=LLMConfig( api_key="not-needed", model="mistral-nemo:12b-instruct-2407-q8_0", base_url="http://localhost:11434/v1" )
- 对于 Ollama:
- 激活环境并运行服务:
source .venv/bin/activate
- 参考文档获取更多信息。