xAI Grok

了解如何配置和使用 xAI 的 Grok 模型与 Cline,包括 API 密钥设置、支持的模型和推理能力。

xAI 是 Grok 背后的公司,Grok 是一个以其对话能力和大型上下文窗口而闻名的大语言模型。Grok 模型旨在提供有帮助、信息丰富且上下文相关的响应。

网站: https://x.ai/arrow-up-right

获取 API 密钥

  1. 注册/登录: 前往 xAI 控制台arrow-up-right。创建账户或登录。

  2. 导航到 API 密钥: 前往仪表板中的 API 密钥部分。

  3. 创建密钥: 点击创建新的 API 密钥。为您的密钥指定一个描述性名称(例如"Cline")。

  4. 复制密钥: 重要: _立即_复制 API 密钥。您将无法再次查看它。请安全存储。

支持的模型

Cline 支持以下 xAI Grok 模型:

Grok-3 模型

  • grok-3-beta(默认)- xAI 的 Grok-3 beta 模型,具有 131K 上下文窗口

  • grok-3-fast-beta - xAI 的 Grok-3 快速 beta 模型,具有 131K 上下文窗口

  • grok-3-mini-beta - xAI 的 Grok-3 mini beta 模型,具有 131K 上下文窗口

  • grok-3-mini-fast-beta - xAI 的 Grok-3 mini 快速 beta 模型,具有 131K 上下文窗口

Grok-2 模型

  • grok-2-latest - xAI 的 Grok-2 模型 - 最新版本,具有 131K 上下文窗口

  • grok-2 - xAI 的 Grok-2 模型,具有 131K 上下文窗口

  • grok-2-1212 - xAI 的 Grok-2 模型(版本 1212),具有 131K 上下文窗口

Grok 视觉模型

  • grok-2-vision-latest - xAI 的 Grok-2 视觉模型 - 最新版本,支持图像且具有 32K 上下文窗口

  • grok-2-vision - xAI 的 Grok-2 视觉模型,支持图像且具有 32K 上下文窗口

  • grok-2-vision-1212 - xAI 的 Grok-2 视觉模型(版本 1212),支持图像且具有 32K 上下文窗口

  • grok-vision-beta - xAI 的 Grok 视觉 Beta 模型,支持图像且具有 8K 上下文窗口

传统模型

  • grok-beta - xAI 的 Grok Beta 模型(传统),具有 131K 上下文窗口

在 Cline 中配置

  1. 打开 Cline 设置: 点击 Cline 面板中的设置图标(⚙️)。

  2. 选择提供商: 从"API 提供商"下拉菜单中选择"xAI"。

  3. 输入 API 密钥: 将您的 xAI API 密钥粘贴到"xAI API 密钥"字段中。

  4. 选择模型: 从"模型"下拉菜单中选择所需的 Grok 模型。

推理能力

Grok 3 Mini 模型具有专门的推理能力,允许它们"在响应之前思考"——对于复杂的问题解决任务特别有用。

启用推理的模型

推理仅支持以下模型:

  • grok-3-mini-beta

  • grok-3-mini-fast-beta

Grok 3 模型 grok-3-betagrok-3-fast-beta 不支持推理。

控制推理强度

当使用启用推理的模型时,您可以使用 reasoning_effort 参数控制模型的思考强度:

  • low:最少的思考时间,使用较少的 tokens 以获得快速响应

  • high:最多的思考时间,利用更多的 tokens 来解决复杂问题

对于应该快速完成的简单查询,选择 low;对于响应延迟不太重要且难度较高的问题,选择 high

关键功能

  • 逐步问题解决:模型在给出答案之前系统地思考问题

  • 数学和定量优势:擅长数值挑战和逻辑谜题

  • 推理轨迹访问:模型的思考过程可通过响应完成对象中的 reasoning_content 字段获得

提示和说明

  • 上下文窗口: 大多数 Grok 模型具有大型上下文窗口(高达 131K tokens),允许您在提示词中包含大量代码和上下文。

  • 视觉能力: 当您需要处理或分析图像时,选择支持视觉的模型(grok-2-vision-latestgrok-2-vision 等)。

  • 定价: 定价因模型而异,输入成本为每百万 tokens $0.3 到 $5.0,输出成本为每百万 tokens $0.5 到 $25.0。有关最新的定价信息,请参阅 xAI 文档。

  • 性能权衡: "Fast"变体通常提供更快的响应时间,但成本可能更高,而"mini"变体更经济,但可能能力有所降低。

Last updated