Think MCP Server
Think MCP Server 是一个基于 Python 的服务,使用 Groq 的 API 为 AI 应用程序和研究提供原始思维链 LLM 令牌访问。
Think MCP 服务器 Quick Start
Think MCP Server 是一个基于 Python 的服务,它使用 Groq API 调用暴露原始思维链令牌(如r1或qwen)的大语言模型,为AI应用程序和研究提供底层思维过程的访问。
安装和配置
# 克隆仓库
git clone https://github.com/your-repo/think-mcp-server.git
cd think-mcp-server
# 安装依赖
pip install -r requirements.txt
# 设置Groq API密钥
export GROQ_API_KEY="your-api-key-here"
基本使用
from think_mcp import ThinkMCPClient
# 初始化客户端
client = ThinkMCPClient()
# 发送请求获取思维链令牌
response = client.generate(
model="llama3-70b-8192",
prompt="解释量子计算的基本原理",
raw_thinking=True # 启用原始思维链
)
# 处理响应
print(response.thinking_chain) # 访问思维链
print(response.final_answer) # 访问最终回答
高级选项
- 支持多种LLM模型:
llama3-70b-8192
、mixtral-8x7b
、qwen
等 - 可配置思维过程输出格式
- 批量处理能力
详细文档请参阅:完整API文档