LocalMind
LocalMind 是一个完全兼容模型上下文协议的本地LLM聊天应用。它使用Azure OpenAI作为LLM后端,您可以将其连接到所有可用的MCP Server。
LocalMind 快速开始指南
LocalMind 是一个完全兼容 Model Context 协议的本地 LLM 聊天应用程序,使用 Azure OpenAI 作为后端,可连接到所有可用的 MCP 服务器。
基本设置
后端配置
- 在后端文件夹中创建
.env
文件:
APP_CONFIG_FILE_PATH=config.yaml
AZURE_OPENAI_API_KEY=x
AZURE_OPENAI_DEPLOYMENT=x
AZURE_OPENAI_ENDPOINT=https://x.openai.azure.com
AZURE_OPENAI_API_VERSION=2024-07-01-preview
AZURE_OPENAI_CHAT_MODEL=gpt-4o
AZURE_OPENAI_EMBEDDINGS_MODEL=embedding
- 创建
config.yaml
文件:
server:
- name: [SERVER_NAME]
command: [SERVER_COMMAND]
args:
- [SERVER_ARGS]
开发模式
选择以下开发方式之一:
-
在浏览器中与Python后端一起开发前端:
./dev.sh frontend-dev
-
以开发模式运行Tauri应用程序:
./dev.sh app-dev
RAG MCP 服务器设置
-
在
rag
文件夹中创建.env
文件(与后端环境变量相同) -
创建虚拟环境并安装依赖:
cd rag python3 -m venv .venv source .venv/bin/activate pip install -r requirements.txt
-
在后端
config.yaml
中添加以下配置:server: - name: rag command: [ABSOLUTE_PATH]/rag/.venv/bin/python3 args: - [ABSOLUTE_PATH]/rag/main.py
注意:目前仅支持 Azure OpenAI 服务。