MCP 服务器:Ollama 深度研究员

MCP 服务器:Ollama 深度研究员

基于 Ollama 和本地 LLM 的深度研究工具,支持迭代式网络搜索与总结。

快速入门

  1. 安装依赖:
  2. 克隆仓库并安装依赖:
    git clone https://github.com/Cam10001110101/mcp-server-ollama-deep-researcher
    cd mcp-server-ollama-deep-researcher
    npm install
    uv pip install .
    npm run build
    
  3. 配置 API 密钥:
    • 创建 .env 文件并填写 Tavily、Perplexity 和 LangSmith 的 API 密钥。
  4. 启动服务:
    node build/index.js
    
  5. 使用 Docker(可选):
    ./run-docker.sh start
    
  6. 配置客户端:
    • 编辑 MCP 客户端配置文件(如 claude_desktop_config.json),添加服务器路径和环境变量。
  7. 开始研究:
    • 示例 Prompt:Configure with perplexity and deepseek-r1:8b then research AI-First Applications