MCP LLM Bridge
实现MCP与OpenAI兼容的LLM之间的通信。
概述
MCP LLM Bridge 是一个连接 Model Context Protocol (MCP) 服务器与 OpenAI 兼容的 LLM 的工具,提供双向协议转换,允许任何 OpenAI 兼容的语言模型利用标准化接口与 MCP 工具交互。
快速开始
安装
# 安装 uv 和项目
curl -LsSf https://astral.sh/uv/install.sh | sh
git clone https://github.com/bartolli/mcp-llm-bridge.git
cd mcp-llm-bridge
uv venv
source .venv/bin/activate
uv pip install -e .
# 创建测试数据库
python -m mcp_llm_bridge.create_test_db
配置
- 创建
.env
文件:
OPENAI_API_KEY=你的密钥
OPENAI_MODEL=gpt-4o
- 配置桥接器 (在
src/mcp_llm_bridge/main.py
中):
config = BridgeConfig(
mcp_server_params=StdioServerParameters(
command="uvx",
args=["mcp-server-sqlite", "--db-path", "test.db"],
env=None
),
llm_config=LLMConfig(
api_key=os.getenv("OPENAI_API_KEY"),
model=os.getenv("OPENAI_MODEL", "gpt-4o"),
base_url=None
)
)
其他 LLM 端点支持
Ollama
llm_config=LLMConfig(
api_key="not-needed",
model="mistral-nemo:12b-instruct-2407-q8_0",
base_url="http://localhost:11434/v1"
)
LM Studio
llm_config=LLMConfig(
api_key="not-needed",
model="local-model",
base_url="http://localhost:1234/v1"
)
运行
python -m mcp_llm_bridge.main
# 示例查询: "数据库中最昂贵的产品是什么?"
# 退出: 输入 'quit' 或按 Ctrl+C
测试
uv pip install -e ".[test]"
python -m pytest -v tests/
更多信息
关于 Anthropic 的 MCP 的更多信息,请参考: