OmniLLM:多模型统一接入协议
OmniLLM 是一个 MCP 服务器,允许 Claude 访问和整合多个 LLM 的响应,包括 ChatGPT、Azure OpenAI 和 Google Gemini。
快速入门指南
前置条件
- Python 3.10+
- Claude Desktop 应用程序
- 所需 LLM 的 API 密钥
安装步骤
-
克隆仓库并进入项目目录
git clone https://github.com/sabpap/omnillm-mcp.git cd omnillm-mcp
-
创建虚拟环境并激活
python -m venv venv source venv/bin/activate # Windows: venv\Scripts\activate
-
安装依赖
pip install mcp[cli] httpx python-dotenv
配置
在项目根目录创建 .env
文件,填入所需 API 密钥:
OPENAI_API_KEY=your_openai_key_here AZURE_OPENAI_API_KEY=your_azure_key_here AZURE_OPENAI_ENDPOINT=your_azure_endpoint_here GOOGLE_API_KEY=your_google_api_key_here
集成 Claude Desktop
-
打开 Claude Desktop,进入 设置 > 开发者 > 编辑配置。
-
在
claude_desktop_config.json
中添加以下内容:{ "mcpServers": { "omnillm": { "command": "python", "args": [ "path/to/server.py" ], "env": { "PYTHONPATH": "path/to/omnillm-mcp" } } } }
-
保存配置文件并重启 Claude Desktop。
使用示例
- 查询 ChatGPT:"咨询 ChatGPT 关于最佳编程学习方法"
- 查询 Gemini:"问问 Gemini 关于旅游建议"
- 查询所有模型:"比较不同模型对某个问题的回答"