将数据发布到作业 API
编辑将数据发布到作业 API
编辑已在 7.11.0 中弃用。
直接将数据发布到异常检测作业已弃用,在未来的主要版本中将需要 数据馈送。
将数据发送到异常检测作业进行分析。
请求
编辑POST _ml/anomaly_detectors/<job_id>/_data
先决条件
编辑需要 manage_ml
集群权限。此权限包含在内置角色 machine_learning_admin
中。
描述
编辑作业必须处于 open
状态才能接收和处理数据。
发送到作业的数据必须使用 JSON 格式。可以发送多个 JSON 文档,它们之间可以是相邻的且没有分隔符,或者以空格分隔。换行符分隔的 JSON (NDJSON) 是一种可能的空格分隔格式,为此,应将 Content-Type
标头设置为 application/x-ndjson
。
上传大小限制为 Elasticsearch HTTP 接收缓冲区大小(默认为 100 Mb)。如果您的数据更大,请将其分成多个块,并按顺序时间顺序分别上传每个块。在实时运行时,通常建议执行许多小上传,而不是将数据排队以上传较大的文件。
上传数据时,请检查作业数据计数以了解进度。以下文档将不会被处理
- 未按时间顺序排列且超出延迟窗口的文档
- 具有无效时间戳的记录
对于每个作业,一次只能从单个连接接受数据。目前无法使用通配符或逗号分隔列表将数据发布到多个作业。
路径参数
编辑-
<job_id>
- (必需,字符串)异常检测作业的标识符。
查询参数
编辑-
reset_start
- (可选,字符串)指定桶重置范围的开始。
-
reset_end
- (可选,字符串)指定桶重置范围的结束。
请求正文
编辑一个或多个包含要分析数据的 JSON 文档的序列。文档之间只允许使用空格字符。
示例
编辑以下示例将 it_ops_new_kpi.json
文件中的数据发布到 it_ops_new_kpi
作业
$ curl -s -H "Content-type: application/json" -X POST http:\/\/localhost:9200/_ml/anomaly_detectors/it_ops_new_kpi/_data --data-binary @it_ops_new_kpi.json
发送数据时,您会收到有关作业运行状况的信息。例如
{ "job_id":"it_ops_new_kpi", "processed_record_count":21435, "processed_field_count":64305, "input_bytes":2589063, "input_field_count":85740, "invalid_date_count":0, "missing_field_count":0, "out_of_order_timestamp_count":0, "empty_bucket_count":16, "sparse_bucket_count":0, "bucket_count":2165, "earliest_record_timestamp":1454020569000, "latest_record_timestamp":1455318669000, "last_data_time":1491952300658, "latest_empty_bucket_timestamp":1454541600000, "input_record_count":21435 }
有关这些属性的更多信息,请参阅 响应正文。