OmniLLM:多模型统一接入协议

OmniLLM:多模型统一接入协议

OmniLLM 是一个 MCP 服务器,允许 Claude 访问和整合多个 LLM 的响应,包括 ChatGPT、Azure OpenAI 和 Google Gemini。

快速入门指南

前置条件

  • Python 3.10+
  • Claude Desktop 应用程序
  • 所需 LLM 的 API 密钥

安装步骤

  1. 克隆仓库并进入项目目录

    git clone https://github.com/sabpap/omnillm-mcp.git cd omnillm-mcp

  2. 创建虚拟环境并激活

    python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate

  3. 安装依赖

    pip install mcp[cli] httpx python-dotenv

配置

在项目根目录创建 .env 文件,填入所需 API 密钥:

OPENAI_API_KEY=your_openai_key_here AZURE_OPENAI_API_KEY=your_azure_key_here AZURE_OPENAI_ENDPOINT=your_azure_endpoint_here GOOGLE_API_KEY=your_google_api_key_here

集成 Claude Desktop

  1. 打开 Claude Desktop,进入 设置 > 开发者 > 编辑配置。

  2. claude_desktop_config.json 中添加以下内容:

    { "mcpServers": { "omnillm": { "command": "python", "args": [ "path/to/server.py" ], "env": { "PYTHONPATH": "path/to/omnillm-mcp" } } } }

  3. 保存配置文件并重启 Claude Desktop。

使用示例

  • 查询 ChatGPT:"咨询 ChatGPT 关于最佳编程学习方法"
  • 查询 Gemini:"问问 Gemini 关于旅游建议"
  • 查询所有模型:"比较不同模型对某个问题的回答"