LocaLLama MCP 服务器

LocaLLama MCP 服务器

一个与 Roo Code/Cline.Bot 配合使用的 MCP 服务器,通过智能路由优化编码任务的成本。

快速入门指南

安装

  1. 克隆仓库: git clone https://github.com/yourusername/locallama-mcp.git cd locallama-mcp
  2. 安装依赖: npm install
  3. 构建项目: npm run build

配置

  1. 复制 .env.example 文件为 .env: cp .env.example .env
  2. 编辑 .env 文件,设置本地 LLM 端点、API 密钥和其他参数。

启动

运行以下命令启动服务器: npm start

使用

  • 将 LocaLLama MCP 集成到 Cline.Bot 或 Roo Code 中,参考 README 的配置示例。
  • 使用工具如 clear_openrouter_trackingbenchmark_free_models 进行模型管理和性能测试。

开发模式

运行以下命令以开发模式启动: npm run dev

测试

运行测试: npm test