LocaLLama MCP 服务器
一个与 Roo Code/Cline.Bot 配合使用的 MCP 服务器,通过智能路由优化编码任务的成本。
快速入门指南
安装
- 克隆仓库: git clone https://github.com/yourusername/locallama-mcp.git cd locallama-mcp
- 安装依赖: npm install
- 构建项目: npm run build
配置
- 复制
.env.example
文件为.env
: cp .env.example .env - 编辑
.env
文件,设置本地 LLM 端点、API 密钥和其他参数。
启动
运行以下命令启动服务器: npm start
使用
- 将 LocaLLama MCP 集成到 Cline.Bot 或 Roo Code 中,参考 README 的配置示例。
- 使用工具如
clear_openrouter_tracking
和benchmark_free_models
进行模型管理和性能测试。
开发模式
运行以下命令以开发模式启动: npm run dev
测试
运行测试: npm test