Mcp Server Ragdocs

Mcp Server Ragdocs

这是一个MCP Server,它通过向量搜索提供检索和处理文档的工具,支持本地或托管。使AI助手能够利用相关的文档上下文来增强其响应。

Version License: MIT

这是一个MCP服务器实现,提供通过向量搜索检索文档的工具,使AI助手能够利用相关文档上下文来增强响应。

主要功能

  • 基于向量的文档搜索和检索
  • 支持多个文档源
  • 语义搜索能力
  • 支持本地(Ollama)或OpenAI嵌入

快速设置

1. 与Claude Desktop集成

将此配置添加到您的claude_desktop_config.json中:

{
  "mcpServers": {
    "rag-docs": {
      "command": "npx",
      "args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
      "env": {
        "EMBEDDINGS_PROVIDER": "ollama",
        "QDRANT_URL": "your-qdrant-url"
      }
    }
  }
}

2. 配置选项

使用OpenAI嵌入

{
  "mcpServers": {
    "rag-docs-openai": {
      "command": "npx",
      "args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
      "env": {
        "EMBEDDINGS_PROVIDER": "openai",
        "OPENAI_API_KEY": "your-openai-key-here",
        "QDRANT_URL": "your-qdrant-url"
      }
    }
  }
}

使用Ollama嵌入(本地)

{
  "mcpServers": {
    "rag-docs-ollama": {
      "command": "npx",
      "args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
      "env": {
        "EMBEDDINGS_PROVIDER": "ollama",
        "OLLAMA_BASE_URL": "http://localhost:11434",
        "QDRANT_URL": "http://localhost:6333"
      }
    }
  }
}

3. 本地开发环境

使用Docker Compose快速启动所需服务:

# 下载docker-compose.yml文件
curl -O https://raw.githubusercontent.com/sanderkooger/mcp-server-ragdocs/main/docker-compose.yml

# 启动服务
docker compose up -d

这将启动:

  • Qdrant向量数据库 (端口6333)
  • Ollama LLM服务 (端口11434)

4. 使用Ollama(无Docker)

# 安装Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 下载嵌入模型
ollama pull nomic-embed-text

# 验证安装
ollama list

核心工具

  • search_documentation - 使用自然语言查询搜索文档
  • list_sources - 查看所有已索引的文档来源
  • extract_urls - 从网页提取所有URL
  • run_queue - 处理文档队列中的所有URL

环境变量

变量必需项默认值说明
EMBEDDINGS_PROVIDERollama"openai"或"ollama"
OPENAI_API_KEY使用OpenAI时-从OpenAI获取
OLLAMA_BASE_URL使用Ollama时http://localhost:11434Ollama服务器URL
QDRANT_URLhttp://localhost:6333Qdrant数据库URL
QDRANT_API_KEY使用Qdrant Cloud时-从Qdrant Cloud获取

许可证

MIT许可证