MCP LLM Bridge

MCP LLM Bridge

实现MCP与OpenAI兼容的LLM之间的通信。

概述

MCP LLM Bridge 是一个连接 Model Context Protocol (MCP) 服务器与 OpenAI 兼容的 LLM 的工具,提供双向协议转换,允许任何 OpenAI 兼容的语言模型利用标准化接口与 MCP 工具交互。

MCP LLM 桥梁演示

快速开始

安装

# 安装 uv 和项目
curl -LsSf https://astral.sh/uv/install.sh | sh
git clone https://github.com/bartolli/mcp-llm-bridge.git
cd mcp-llm-bridge
uv venv
source .venv/bin/activate
uv pip install -e .

# 创建测试数据库
python -m mcp_llm_bridge.create_test_db

配置

  1. 创建 .env 文件:
OPENAI_API_KEY=你的密钥
OPENAI_MODEL=gpt-4o
  1. 配置桥接器 (在 src/mcp_llm_bridge/main.py 中):
config = BridgeConfig(
    mcp_server_params=StdioServerParameters(
        command="uvx",
        args=["mcp-server-sqlite", "--db-path", "test.db"],
        env=None
    ),
    llm_config=LLMConfig(
        api_key=os.getenv("OPENAI_API_KEY"),
        model=os.getenv("OPENAI_MODEL", "gpt-4o"),
        base_url=None
    )
)

其他 LLM 端点支持

Ollama

llm_config=LLMConfig(
    api_key="not-needed",
    model="mistral-nemo:12b-instruct-2407-q8_0",
    base_url="http://localhost:11434/v1"
)

LM Studio

llm_config=LLMConfig(
    api_key="not-needed",
    model="local-model",
    base_url="http://localhost:1234/v1"
)

运行

python -m mcp_llm_bridge.main

# 示例查询: "数据库中最昂贵的产品是什么?"
# 退出: 输入 'quit' 或按 Ctrl+C

测试

uv pip install -e ".[test]"
python -m pytest -v tests/

更多信息

关于 Anthropic 的 MCP 的更多信息,请参考:

许可证

MIT