WebSocket MCP
使用自定义websocket传输层的模型上下文协议(MCP)服务器和客户端。
概述
WebSocket MCP 是一个基于 WebSocket 的模型上下文协议实现,提供服务器和客户端组件,支持与本地 LLM 进行高效通信。
主要组件
- MCP 服务器:处理与 LLM 的通信
- MCP 客户端:向服务器发送请求并处理响应
- 本地 LLM 集成:支持多种 LLM 模型(通过 Ollama)
快速启动
服务器端
启动本地 LLM 服务器:
$ uv run local-llm-server 本地 LLM MCP 服务器正在 ws://0.0.0.0:8766 上运行
服务器会自动检测并列出可用的 LLM 模型,并监听传入的请求。
客户端端
连接到 LLM 服务器:
# 本地连接
$ uv run local-llm-client
# 远程连接
$ uv run local-llm-client --server-ip 192.168.1.123
客户端会显示可用模型列表,您可以输入提示并选择要使用的模型。
使用示例
- 启动服务器
- 运行客户端
- 查看可用模型
- 输入提示(如"构建模型火箭的步骤是什么?")
- 选择模型(如"llama3.1:8b")
- 接收并查看 LLM 响应
高级配置
两个组件都支持通过命令行参数进行配置:
- 服务器:可配置端口、主机和模型设置
- 客户端:可配置服务器地址和连接参数
功能扩展
该项目设计灵活,可扩展以支持:
- 新的 LLM 模型
- 自定义请求类型
- 不同的通信模式
有关更多详细信息,请参阅完整文档。