构建基于LLM的智能工作流

构建基于LLM的智能工作流

使用大型语言模型构建代理和复杂工作流的工具。

快速入门

本项目是一个用于与外部资源交互的MCP应用程序。

要求

  • Python 3.7 或更高版本
  • asyncio 库(Python 内置)
  • 自定义库 mcp

安装步骤

  1. 克隆仓库或下载脚本文件到本地。

  2. 运行客户端: 使用以下命令启动服务:

    uv run client.py
    

示例请求

向以下 URL 发送查询:

http://127.0.0.1:8000/process_message

示例数据格式如下:

{
    "message": "帮我输出随便五个资料",
    "session_id": "1"
}