ToolChat:基于MCP服务器的LLM聊天工具
使用PydanticAI和MCP服务器工具实现的LLM聊天工具。
快速入门
ToolChat 是一个支持通过 MCP 服务器与 LLM 模型交互的工具。
配置
- 准备一个 YAML 文件,定义 MCP 工具服务器配置。
- 使用
--tool-servers
参数指定配置文件路径。 - 使用
--enable-tool-server
启用特定工具。
示例命令:
uv run toolchat --model google-gla:gemini-2.5-pro-exp-03-25 --tool-servers sample-tools.yml --enable-tool-server awslabs.aws-documentation-mcp-server
运行后输入问题即可开始对话,例如:
查找关于 S3 存储桶命名规则的文档。
更多命令参考 /help
。