MCP 服务器:Ollama 深度研究员
基于 Ollama 和本地 LLM 的深度研究工具,支持迭代式网络搜索与总结。
快速入门
- 安装依赖:
- 下载并安装 Node.js 和 Python 3.10+
- 安装 Ollama 并拉取模型:
ollama pull deepseek-r1:8b
- 克隆仓库并安装依赖:
git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher cd mcp-server-ollama-deep-researcher npm install uv pip install . npm run build
- 配置 API 密钥:
- 创建
.env
文件并填写 Tavily、Perplexity 和 LangSmith 的 API 密钥。
- 创建
- 启动服务:
node build/index.js
- 使用 Docker(可选):
./run-docker.sh start
- 配置客户端:
- 编辑 MCP 客户端配置文件(如
claude_desktop_config.json
),添加服务器路径和环境变量。
- 编辑 MCP 客户端配置文件(如
- 开始研究:
- 示例 Prompt:
Configure with perplexity and deepseek-r1:8b then research AI-First Applications
- 示例 Prompt: