Think MCP Server

Think MCP Server

Think MCP Server 是一个基于 Python 的服务,使用 Groq 的 API 为 AI 应用程序和研究提供原始思维链 LLM 令牌访问。

Think MCP 服务器 Quick Start

Think MCP Server 是一个基于 Python 的服务,它使用 Groq API 调用暴露原始思维链令牌(如r1或qwen)的大语言模型,为AI应用程序和研究提供底层思维过程的访问。

安装和配置

# 克隆仓库
git clone https://github.com/your-repo/think-mcp-server.git
cd think-mcp-server

# 安装依赖
pip install -r requirements.txt

# 设置Groq API密钥
export GROQ_API_KEY="your-api-key-here"

基本使用

from think_mcp import ThinkMCPClient

# 初始化客户端
client = ThinkMCPClient()

# 发送请求获取思维链令牌
response = client.generate(
    model="llama3-70b-8192",
    prompt="解释量子计算的基本原理",
    raw_thinking=True  # 启用原始思维链
)

# 处理响应
print(response.thinking_chain)  # 访问思维链
print(response.final_answer)    # 访问最终回答

高级选项

  • 支持多种LLM模型:llama3-70b-8192mixtral-8x7bqwen
  • 可配置思维过程输出格式
  • 批量处理能力

详细文档请参阅:完整API文档