Mcp Server Ragdocs
这是一个MCP Server,它通过向量搜索提供检索和处理文档的工具,支持本地或托管。使AI助手能够利用相关的文档上下文来增强其响应。
这是一个MCP服务器实现,提供通过向量搜索检索文档的工具,使AI助手能够利用相关文档上下文来增强响应。
主要功能
- 基于向量的文档搜索和检索
- 支持多个文档源
- 语义搜索能力
- 支持本地(Ollama)或OpenAI嵌入
快速设置
1. 与Claude Desktop集成
将此配置添加到您的claude_desktop_config.json
中:
{
"mcpServers": {
"rag-docs": {
"command": "npx",
"args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
"env": {
"EMBEDDINGS_PROVIDER": "ollama",
"QDRANT_URL": "your-qdrant-url"
}
}
}
}
2. 配置选项
使用OpenAI嵌入
{
"mcpServers": {
"rag-docs-openai": {
"command": "npx",
"args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
"env": {
"EMBEDDINGS_PROVIDER": "openai",
"OPENAI_API_KEY": "your-openai-key-here",
"QDRANT_URL": "your-qdrant-url"
}
}
}
}
使用Ollama嵌入(本地)
{
"mcpServers": {
"rag-docs-ollama": {
"command": "npx",
"args": ["-y", "@sanderkooger/mcp-server-ragdocs"],
"env": {
"EMBEDDINGS_PROVIDER": "ollama",
"OLLAMA_BASE_URL": "http://localhost:11434",
"QDRANT_URL": "http://localhost:6333"
}
}
}
}
3. 本地开发环境
使用Docker Compose快速启动所需服务:
# 下载docker-compose.yml文件
curl -O https://raw.githubusercontent.com/sanderkooger/mcp-server-ragdocs/main/docker-compose.yml
# 启动服务
docker compose up -d
这将启动:
- Qdrant向量数据库 (端口6333)
- Ollama LLM服务 (端口11434)
4. 使用Ollama(无Docker)
# 安装Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 下载嵌入模型
ollama pull nomic-embed-text
# 验证安装
ollama list
核心工具
- search_documentation - 使用自然语言查询搜索文档
- list_sources - 查看所有已索引的文档来源
- extract_urls - 从网页提取所有URL
- run_queue - 处理文档队列中的所有URL
环境变量
变量 | 必需项 | 默认值 | 说明 |
---|---|---|---|
EMBEDDINGS_PROVIDER | 是 | ollama | "openai"或"ollama" |
OPENAI_API_KEY | 使用OpenAI时 | - | 从OpenAI获取 |
OLLAMA_BASE_URL | 使用Ollama时 | http://localhost:11434 | Ollama服务器URL |
QDRANT_URL | 是 | http://localhost:6333 | Qdrant数据库URL |
QDRANT_API_KEY | 使用Qdrant Cloud时 | - | 从Qdrant Cloud获取 |
许可证
MIT许可证