MCP-LLM Bridge
连接Ollama和MCP服务器的桥梁,使本地LLM能够使用Model Context Protocol工具
简介
MCP-LLM Bridge 是一个 TypeScript 项目,它将本地 LLM (通过 Ollama) 与 Model Context Protocol (MCP) 服务器连接起来,使开源模型能够使用与 Claude 相同的工具和功能。
安装步骤
1. 安装 Ollama 和模型
ollama pull qwen2.5-coder:7b-instruct
2. 安装 MCP 服务器
npm install -g @modelcontextprotocol/server-filesystem npm install -g @modelcontextprotocol/server-brave-search npm install -g @modelcontextprotocol/server-github npm install -g @modelcontextprotocol/server-memory npm install -g @patruff/server-flux npm install -g @patruff/server-gmail-drive
3. 配置凭证
- Brave 搜索: 设置
BRAVE_API_KEY
环境变量 - GitHub: 设置
GITHUB_PERSONAL_ACCESS_TOKEN
环境变量 - Flux 图像生成: 设置
REPLICATE_API_TOKEN
环境变量 - Gmail/Drive: 运行
node path/to/gmail-drive/index.js auth
完成认证
配置
创建 bridge_config.json
文件:
{
"mcpServers": {
"filesystem": {
"command": "node",
"args": ["path/to/server-filesystem/dist/index.js"],
"allowedDirectory": "workspace/path"
}
},
"llm": {
"model": "qwen2.5-coder:7b-instruct",
"baseUrl": "http://localhost:11434"
}
}
使用方法
- 启动桥接器:
npm run start
- 可用命令:
list-tools
: 显示所有可用工具- 普通文本: 将提示发送给 LLM
quit
: 退出程序
使用示例
> Search the web for "latest TypeScript features"
[使用 Brave 搜索查找结果]
> Create a new folder called "project-docs"
[使用 Filesystem MCP 创建目录]
支持的功能
- 文件系统操作
- Brave 网络搜索
- GitHub 交互
- Gmail 和 Google Drive 集成
- 持久内存/存储
- 使用 Flux 生成图像
注意事项
- 确保 Ollama 在使用桥接器前已启动
- 对应的 MCP 服务器需要正确配置才能工作
- 某些功能需要适当的 API 密钥和权限
有关更详细的设置和使用信息,请参考完整文档。