RAT MCP Server (Retrieval Augmented Thinking)
🧠 实现了RAT(检索增强思维)的MCP服务器 - 结合DeepSeek的推理与GPT-4/Claude/Mistral的回答,保持互动之间的对话上下文。
简介
RAT (检索增强思维) MCP 服务器结合 DeepSeek 的推理能力与多种响应模型 (Claude 3.5, GPT-4, Gemini 等),通过两阶段处理实现更强大的 AI 交互。
快速安装
# 1. 克隆仓库
git clone https://github.com/newideas99/RAT-retrieval-augmented-thinking-MCP.git
cd rat-mcp-server
# 2. 安装依赖
npm install
# 3. 编辑 .env 文件添加 API 密钥
# 4. 构建服务器
npm run build
配置环境
创建 .env
文件,添加以下内容:
# 必需的 API 密钥
DEEPSEEK_API_KEY=您的_deepseek_api_key
OPENROUTER_API_KEY=您的_openrouter_api_key
# 可选配置
ANTHROPIC_API_KEY=您的_anthropic_api_key
DEFAULT_MODEL=claude-3-5-sonnet-20241022
OPENROUTER_MODEL=openai/gpt-4
与 Cline 集成
在 cline_mcp_settings.json
中添加:
{
"mcpServers": {
"rat": {
"command": "/path/to/node",
"args": ["/path/to/rat-mcp-server/build/index.js"],
"env": {
"DEEPSEEK_API_KEY": "您的密钥",
"OPENROUTER_API_KEY": "您的密钥",
"ANTHROPIC_API_KEY": "您的密钥",
"DEFAULT_MODEL": "claude-3-5-sonnet-20241022",
"OPENROUTER_MODEL": "openai/gpt-4"
},
"disabled": false,
"autoApprove": []
}
}
}
使用方法
在 Cline 中使用以下代码调用工具:
use_mcp_tool({
server_name: "rat",
tool_name: "generate_response",
arguments: {
prompt: "您的问题",
showReasoning: true, // 可选:显示推理过程
clearContext: false // 可选:清除对话历史
}
});
主要特性
- 两阶段推理:DeepSeek 进行分析,其他模型生成最终回答
- 自动保存对话历史与上下文管理
- 支持 Claude、GPT-4、Gemini 等多种模型
- 可配置的上下文大小限制
开发模式
npm run watch # 启用自动重建
基于 Skirano 的 RAT 概念,遵循 MIT 许可证。