LocalMind

LocalMind

LocalMind 是一个完全兼容模型上下文协议的本地LLM聊天应用。它使用Azure OpenAI作为LLM后端,您可以将其连接到所有可用的MCP Server。

LocalMind 快速开始指南

LocalMind 是一个完全兼容 Model Context 协议的本地 LLM 聊天应用程序,使用 Azure OpenAI 作为后端,可连接到所有可用的 MCP 服务器。

基本设置

后端配置

  1. 在后端文件夹中创建 .env 文件:
APP_CONFIG_FILE_PATH=config.yaml
AZURE_OPENAI_API_KEY=x
AZURE_OPENAI_DEPLOYMENT=x
AZURE_OPENAI_ENDPOINT=https://x.openai.azure.com
AZURE_OPENAI_API_VERSION=2024-07-01-preview
AZURE_OPENAI_CHAT_MODEL=gpt-4o
AZURE_OPENAI_EMBEDDINGS_MODEL=embedding
  1. 创建 config.yaml 文件:
server:
- name: [SERVER_NAME]
  command: [SERVER_COMMAND]
  args:
  - [SERVER_ARGS]

开发模式

选择以下开发方式之一:

  • 在浏览器中与Python后端一起开发前端:

    ./dev.sh frontend-dev
    
  • 以开发模式运行Tauri应用程序:

    ./dev.sh app-dev
    

RAG MCP 服务器设置

  1. rag 文件夹中创建 .env 文件(与后端环境变量相同)

  2. 创建虚拟环境并安装依赖:

    cd rag
    python3 -m venv .venv
    source .venv/bin/activate
    pip install -r requirements.txt
    
  3. 在后端 config.yaml 中添加以下配置:

    server:
    - name: rag
      command: [ABSOLUTE_PATH]/rag/.venv/bin/python3
      args:
      - [ABSOLUTE_PATH]/rag/main.py
    

注意:目前仅支持 Azure OpenAI 服务。