Anthropic 推理服务

编辑

创建推理端点以使用 anthropic 服务执行推理任务。

请求

编辑

PUT /_inference/<task_type>/<inference_id>

路径参数

编辑
<inference_id>
(必填,字符串) 推理端点的唯一标识符。
<task_type>

(必填,字符串) 模型将执行的推理任务类型。

可用任务类型

  • completion

请求体

编辑
chunking_settings

(可选,对象) 分块配置对象。请参阅 配置分块 以了解有关分块的更多信息。

max_chunking_size
(可选,整数) 指定一个分块的最大大小(以单词为单位)。默认为 250。此值不能高于 300 或低于 20(对于 sentence 策略)或 10(对于 word 策略)。
overlap
(可选,整数) 仅适用于 word 分块策略。指定分块的重叠单词数。默认为 100。此值不能高于 max_chunking_size 的一半。
sentence_overlap
(可选,整数) 仅适用于 sentence 分块策略。指定分块的重叠句子数。可以是 10。默认为 1
strategy
(可选,字符串) 指定分块策略。可以是 sentenceword
service
(必填,字符串) 指定任务类型支持的服务类型。在本例中,为 anthropic
service_settings

(必填,对象) 用于安装推理模型的设置。

这些设置特定于 anthropic 服务。

api_key
(必填,字符串) Anthropic API 的有效 API 密钥。
model_id
(必填,字符串) 要用于推理任务的模型名称。您可以在 Anthropic 模型 中找到受支持的模型。
rate_limit

(可选,对象) 默认情况下,anthropic 服务将每分钟允许的请求数设置为 50。这有助于最大程度地减少 Anthropic 返回的速率限制错误。要修改此设置,请在服务设置中设置此对象的 requests_per_minute 设置

"rate_limit": {
    "requests_per_minute": <<number_of_requests>>
}
task_settings

(必填,对象) 配置推理任务的设置。这些设置特定于您指定的 <task_type>

task_settings 用于 completion 任务类型
max_tokens
(必填,整数) 在停止之前生成的令牌的最大数量。
temperature

(可选,浮点数) 注入到响应中的随机量。

有关支持范围的更多详细信息,请参阅 Anthropic 消息 API

top_k

(可选,整数) 指定仅从每个后续令牌的前 K 个选项中进行采样。

仅建议用于高级用例。通常您只需要使用 temperature

有关更多详细信息,请参阅 Anthropic 消息 API

top_p

(可选,浮点数) 指定使用 Anthropic 的核采样。

在核采样中,Anthropic 会计算所有选项的累积分布,用于每个后续令牌,按照概率降序排列,并在达到由 top_p 指定的特定概率时将其截断。您应该更改 temperaturetop_p,但不要同时更改两者。

仅建议用于高级用例。通常您只需要使用 temperature

有关更多详细信息,请参阅 Anthropic 消息 API

Anthropic 服务示例

编辑

以下示例演示如何创建名为 anthropic_completion 的推理端点以执行 completion 任务类型。

resp = client.inference.put(
    task_type="completion",
    inference_id="anthropic_completion",
    inference_config={
        "service": "anthropic",
        "service_settings": {
            "api_key": "<api_key>",
            "model_id": "<model_id>"
        },
        "task_settings": {
            "max_tokens": 1024
        }
    },
)
print(resp)
const response = await client.inference.put({
  task_type: "completion",
  inference_id: "anthropic_completion",
  inference_config: {
    service: "anthropic",
    service_settings: {
      api_key: "<api_key>",
      model_id: "<model_id>",
    },
    task_settings: {
      max_tokens: 1024,
    },
  },
});
console.log(response);
PUT _inference/completion/anthropic_completion
{
    "service": "anthropic",
    "service_settings": {
        "api_key": "<api_key>",
        "model_id": "<model_id>"
    },
    "task_settings": {
        "max_tokens": 1024
    }
}