API 参考
编辑API 参考
编辑bulk
编辑批量索引或删除文档。在单个 API 调用中执行多个索引或删除操作。这减少了开销,并可以大大提高索引速度。
client.bulk({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串): 要在其上执行批量操作的数据流、索引或索引别名的名称。 -
operations
(可选, { index, create, update, delete } | { detect_noop, doc, doc_as_upsert, script, scripted_upsert, _source, upsert } | 对象[]) -
pipeline
(可选, 字符串): 用于预处理传入文档的管道 ID。如果索引指定了默认的摄取管道,则将该值设置为_none
将禁用此请求的默认摄取管道。如果配置了最终管道,则无论此参数的值如何,它都将始终运行。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,Elasticsearch 会刷新受影响的分片,使此操作对搜索可见;如果wait_for
,则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。有效值:true
、false
、wait_for
。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
_source
(可选, 布尔值 | 字符串 | 字符串[]):true
或false
返回_source
字段或不返回,或返回字段列表。 -
_source_excludes
(可选, 字符串 | 字符串[]): 要从响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
timeout
(可选, 字符串 | -1 | 0): 每个操作等待以下操作的时间段:自动索引创建、动态映射更新、等待活动分片。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。 -
require_alias
(可选, 布尔值): 如果为true
,则请求的操作必须以索引别名为目标。
-
clear_scroll
编辑清除滚动搜索。
清除滚动搜索的搜索上下文和结果。
client.clearScroll({ ... })
参数
编辑-
请求 (对象)
-
scroll_id
(可选, 字符串 | 字符串[]): 要清除的滚动 ID 列表。要清除所有滚动 ID,请使用_all
。
-
close_point_in_time
编辑关闭时间点。
必须先显式打开时间点,才能在搜索请求中使用。 keep_alive
参数告诉 Elasticsearch 它应该持久化多长时间。当 keep_alive
期限已过时,时间点会自动关闭。但是,保留时间点是有成本的;一旦不再需要用于搜索请求,请立即关闭它们。
client.closePointInTime({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 时间点的 ID。
-
count
编辑计算搜索结果。获取与查询匹配的文档数。
client.count({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串[]): 要搜索的数据流、索引和别名列表。支持通配符 (*
)。要搜索所有数据流和索引,请省略此参数或使用*
或_all
。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 定义搜索定义。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
analyzer
(可选, 字符串): 用于查询字符串的分析器。仅当指定了q
查询字符串参数时,才能使用此参数。 -
analyze_wildcard
(可选, 布尔值): 如果为true
,则会分析通配符和前缀查询。仅当指定了q
查询字符串参数时,才能使用此参数。 -
default_operator
(可选, 枚举("and" | "or")): 查询字符串查询的默认运算符:AND
或OR
。仅当指定了q
查询字符串参数时,才能使用此参数。 -
df
(可选, 字符串): 在查询字符串中未提供字段前缀时用作默认值的字段。仅当指定了q
查询字符串参数时,才能使用此参数。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
ignore_throttled
(可选, 布尔值): 如果为true
,则在冻结时会忽略具体的、展开的或别名的索引。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
lenient
(可选, 布尔值): 如果为true
,则将忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。 -
min_score
(可选, 数字): 设置文档必须具有的最小_score
值才能包含在结果中。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
terminate_after
(可选, 数字): 每个分片要收集的最大文档数。如果查询达到此限制,则 Elasticsearch 会提前终止查询。Elasticsearch 在排序之前收集文档。 -
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。
-
create
编辑索引文档。将 JSON 文档添加到指定的数据流或索引,并使其可搜索。如果目标是索引并且该文档已存在,则请求会更新该文档并增加其版本。
client.create({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的唯一标识符。 -
index
(字符串): 要定位的数据流或索引的名称。如果目标不存在且与具有data_stream
定义的索引模板的名称或通配符 (*
) 模式匹配,则此请求会创建数据流。如果目标不存在且与数据流模板不匹配,则此请求会创建索引。 -
document
(可选, 对象): 文档。 -
pipeline
(可选, 字符串): 用于预处理传入文档的管道 ID。如果索引指定了默认的摄取管道,则将该值设置为_none
将禁用此请求的默认摄取管道。如果配置了最终管道,则无论此参数的值如何,它都将始终运行。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,Elasticsearch 会刷新受影响的分片,使此操作对搜索可见;如果wait_for
,则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。有效值:true
、false
、wait_for
。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
timeout
(可选, 字符串 | -1 | 0): 请求等待以下操作的时间段:自动索引创建、动态映射更新、等待活动分片。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:external
、external_gte
。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
delete
编辑删除文档。从指定的索引中删除 JSON 文档。
client.delete({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的唯一标识符。 -
index
(字符串): 目标索引的名称。 -
if_primary_term
(可选, 数字): 仅当文档具有此主要术语时才执行操作。 -
if_seq_no
(可选, 数字): 仅当文档具有此序列号时才执行操作。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,Elasticsearch 会刷新受影响的分片,使此操作对搜索可见;如果wait_for
,则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。有效值:true
、false
、wait_for
。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
timeout
(可选, 字符串 | -1 | 0): 等待活动分片的时间段。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:external
、external_gte
。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
delete_by_query
编辑删除文档。删除与指定查询匹配的文档。
client.deleteByQuery({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 要搜索的数据流、索引和别名列表。支持通配符 (*
)。要搜索所有数据流或索引,请省略此参数或使用*
或_all
。 -
max_docs
(可选, 数字): 要删除的最大文档数。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用 Query DSL 指定要删除的文档。 -
slice
(可选, { field, id, max }): 使用提供的切片 ID 和切片总数手动切分请求。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
analyzer
(可选, 字符串): 用于查询字符串的分析器。 -
analyze_wildcard
(可选, 布尔值): 如果为true
,则会分析通配符和前缀查询。 -
conflicts
(可选, 枚举("abort" | "proceed")): 当按查询删除操作遇到版本冲突时要执行的操作:abort
或proceed
。 -
default_operator
(可选, 枚举("and" | "or")): 查询字符串查询的默认运算符:AND
或OR
。 -
df
(可选, 字符串): 在查询字符串中未给出字段前缀时,用作默认值的字段。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
from
(可选, 数字): 起始偏移量(默认为 0) -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
lenient
(可选, 布尔值): 如果为true
,则将忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
refresh
(可选, 布尔值): 如果为true
,则 Elasticsearch 会在请求完成后刷新所有参与按查询删除操作的分片。 -
request_cache
(可选, 布尔值): 如果为true
,则此请求将使用请求缓存。默认为索引级别的设置。 -
requests_per_second
(可选, 浮点数): 此请求的每秒子请求的节流阀。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。 -
scroll
(可选, 字符串 | -1 | 0): 用于滚动保留搜索上下文的时间段。 -
scroll_size
(可选, 数字): 为操作提供支持的滚动请求的大小。 -
search_timeout
(可选, 字符串 | -1 | 0): 每个搜索请求的显式超时时间。默认为无超时。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 搜索操作的类型。可用选项:query_then_fetch
、dfs_query_then_fetch
。 -
slices
(可选, 数字 | 枚举("auto")): 此任务应被划分成的切片数。 -
sort
(可选, 字符串数组): <字段>:<方向> 对的列表。 -
stats
(可选, 字符串数组): 用于记录和统计的请求的特定tag
。 -
terminate_after
(可选, 数字): 每个分片要收集的最大文档数。如果查询达到此限制,Elasticsearch 将提前终止查询。Elasticsearch 会在排序之前收集文档。请谨慎使用。Elasticsearch 将此参数应用于处理请求的每个分片。在可能的情况下,让 Elasticsearch 自动执行提前终止。对于目标是跨多个数据层具有后备索引的数据流的请求,请避免指定此参数。 -
timeout
(可选, 字符串 | -1 | 0): 每个删除请求等待活动分片的时间段。 -
version
(可选, 布尔值): 如果为true
,则返回文档版本作为命中结果的一部分。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。 -
wait_for_completion
(可选, 布尔值): 如果为true
,则请求会阻塞直到操作完成。
-
delete_by_query_rethrottle
编辑限制按查询删除操作。
更改特定按查询删除操作的每秒请求数。加快查询速度的重新限制会立即生效,但减慢查询速度的重新限制会在完成当前批处理后生效,以防止滚动超时。
client.deleteByQueryRethrottle({ task_id })
参数
编辑-
请求 (对象)
-
task_id
(字符串 | 数字): 任务的 ID。 -
requests_per_second
(可选, 浮点数): 此请求的每秒子请求的节流阀。
-
delete_script
编辑删除脚本或搜索模板。删除存储的脚本或搜索模板。
client.deleteScript({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 存储的脚本或搜索模板的标识符。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
exists
编辑检查文档。检查指定的文档是否存在。
client.exists({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的标识符。 -
index
(字符串): 数据流、索引和别名的列表。支持通配符 (*
)。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为true
,则请求是实时的,而不是近实时的。 -
refresh
(可选, 布尔值): 如果为true
,则 Elasticsearch 会在请求完成后刷新所有参与按查询删除操作的分片。 -
routing
(可选, 字符串): 目标指定的主分片。 -
_source
(可选, 布尔值 | 字符串 | 字符串[]):true
或false
返回_source
字段或不返回,或返回字段列表。 -
_source_excludes
(可选, 字符串 | 字符串数组): 要在响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
stored_fields
(可选, 字符串 | 字符串数组): 作为命中结果的一部分返回的存储字段的列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定此字段,则_source
参数默认为 false。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:external
、external_gte
。
-
exists_source
编辑检查文档源。检查是否存储了文档的 _source
。
client.existsSource({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的标识符。 -
index
(字符串): 数据流、索引和别名的列表。支持通配符 (*
)。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为 true,则请求是实时的,而不是近实时的。 -
refresh
(可选, 布尔值): 如果为true
,则 Elasticsearch 会在请求完成后刷新所有参与按查询删除操作的分片。 -
routing
(可选, 字符串): 目标指定的主分片。 -
_source
(可选, 布尔值 | 字符串 | 字符串[]):true
或false
返回_source
字段或不返回,或返回字段列表。 -
_source_excludes
(可选, 字符串 | 字符串数组): 要在响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:external
、external_gte
。
-
explain
编辑解释文档匹配结果。返回有关为什么特定文档匹配或不匹配查询的信息。
client.explain({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 定义文档 ID。 -
index
(字符串): 用于限制请求的索引名称。此参数只能提供单个索引名称。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 定义搜索定义。 -
analyzer
(可选, 字符串): 用于查询字符串的分析器。仅当指定了q
查询字符串参数时,才能使用此参数。 -
analyze_wildcard
(可选, 布尔值): 如果为true
,则会分析通配符和前缀查询。 -
default_operator
(可选, 枚举("and" | "or")): 查询字符串查询的默认运算符:AND
或OR
。 -
df
(可选, 字符串): 在查询字符串中未给出字段前缀时,用作默认值的字段。 -
lenient
(可选, 布尔值): 如果为true
,则将忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
_source
(可选, 布尔值 | 字符串 | 字符串数组): 返回_source
字段或不返回(true 或 false),或者返回字段列表。 -
_source_excludes
(可选, 字符串 | 字符串[]): 要从响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
stored_fields
(可选, 字符串 | 字符串数组): 要在响应中返回的存储字段列表。 -
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。
-
field_caps
编辑获取字段功能。
获取多个索引中字段功能的信息。
对于数据流,API 会返回流后备索引中的字段功能。它像任何其他字段一样返回运行时字段。例如,类型为 keyword 的运行时字段与属于 keyword
系列的任何其他字段返回的方式相同。
client.fieldCaps({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名的列表。支持通配符 (*)。要定位所有数据流和索引,请省略此参数或使用 * 或 _all。 -
fields
(可选, 字符串 | 字符串数组): 要检索其功能的字段列表。支持通配符 (*
) 表达式。 -
index_filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 如果提供的查询重写为在每个分片上匹配 none,则允许过滤索引。 -
runtime_mappings
(可选, Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 以类似于在搜索请求中执行的方式在请求中定义临时的运行时字段。这些字段仅作为查询的一部分存在,并优先于索引映射中定义的同名字段。 -
allow_no_indices
(可选, 布尔值): 如果为 false,则当任何通配符表达式、索引别名或_all
值仅指向缺失或关闭的索引时,请求将返回错误。即使请求的目标是其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以 bar 开头,则目标为foo*,bar*
的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则响应中不包括缺失或关闭的索引。 -
include_unmapped
(可选, 布尔值): 如果为 true,则响应中包含未映射的字段。 -
filters
(可选, 字符串): 一组可选的过滤器:可以包括 +metadata,-metadata,-nested,-multifield,-parent -
types
(可选, 字符串数组): 仅返回列表中具有一种类型的字段的结果 -
include_empty_fields
(可选, 布尔值): 如果为 false,则响应中不包含空字段。
-
get
编辑根据文档 ID 获取文档。从索引中检索具有指定 ID 的文档。
client.get({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的唯一标识符。 -
index
(字符串): 包含文档的索引的名称。 -
force_synthetic_source
(可选, 布尔值): 此请求是否应强制使用合成 _source?使用此选项可以测试映射是否支持合成 _source,并了解最坏情况下的性能。启用此选项的获取操作将比在索引中原生启用合成源要慢。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为true
,则请求是实时的,而不是近实时的。 -
refresh
(可选, 布尔值): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见。如果为 false,则不执行任何刷新操作。 -
routing
(可选, 字符串): 目标指定的主分片。 -
_source
(可选, 布尔值 | 字符串 | 字符串数组): 返回 _source 字段的 true 或 false,或者要返回的字段列表。 -
_source_excludes
(可选, 字符串 | 字符串数组): 要在响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
stored_fields
(可选, 字符串 | 字符串数组): 作为命中结果的一部分返回的存储字段的列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定此字段,则_source
参数默认为 false。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:internal、external、external_gte。
-
get_script
编辑获取脚本或搜索模板。检索存储的脚本或搜索模板。
client.getScript({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 存储的脚本或搜索模板的标识符。 -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时
-
get_script_context
编辑获取脚本上下文。
获取支持的脚本上下文及其方法列表。
client.getScriptContext()
get_script_languages
编辑获取脚本语言。
获取可用脚本类型、语言和上下文的列表。
client.getScriptLanguages()
get_source
编辑获取文档的源。返回文档的源。
client.getSource({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档的唯一标识符。 -
index
(字符串): 包含文档的索引的名称。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 布尔值) 如果为 true,则请求是实时的,而不是近实时的。 -
refresh
(可选, 布尔值): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见。如果为 false,则不执行任何刷新操作。 -
routing
(可选, 字符串): 目标指定的主分片。 -
_source
(可选, 布尔值 | 字符串 | 字符串数组): 返回 _source 字段的 true 或 false,或者要返回的字段列表。 -
_source_excludes
(可选, 字符串 | 字符串数组): 要在响应中排除的源字段列表。 -
_source_includes
(可选, 字符串 | 字符串[]): 要包含在响应中的源字段列表。 -
stored_fields
(可选, 字符串 | 字符串数组) -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:internal、external、external_gte。
-
health_report
编辑返回集群的运行状况。
client.healthReport({ ... })
参数
编辑-
请求 (对象)
-
feature
(可选, 字符串 | 字符串数组): 集群的功能,由顶级运行状况报告 API 返回。 -
timeout
(可选, 字符串 | -1 | 0): 显式操作超时。 -
verbose
(可选, 布尔值): 选择加入以获取有关系统运行状况的更多信息。 -
size
(可选, 数字): 限制运行状况报告 API 返回的受影响资源的数量。
-
index
编辑索引文档。将 JSON 文档添加到指定的数据流或索引,并使其可搜索。如果目标是索引并且该文档已存在,则请求会更新该文档并增加其版本。
client.index({ index })
参数
编辑-
请求 (对象)
-
index
(字符串): 要定位的数据流或索引的名称。 -
id
(可选, 字符串): 文档的唯一标识符。 -
document
(可选, 对象): 文档。 -
if_primary_term
(可选, 数字): 仅当文档具有此主要术语时才执行操作。 -
if_seq_no
(可选, 数字): 仅当文档具有此序列号时才执行操作。 -
op_type
(可选, 枚举("index" | "create")): 设置为 create 仅在文档尚不存在时索引该文档(如果不存在则执行 put 操作)。如果具有指定_id
的文档已存在,则索引操作将失败。与使用<index>/_create
端点相同。有效值:index
,create
。如果指定了文档 ID,则默认为index
。否则,默认为create
。 -
pipeline
(可选, 字符串): 用于预处理传入文档的管道 ID。如果索引指定了默认的摄取管道,则将该值设置为_none
将禁用此请求的默认摄取管道。如果配置了最终管道,则无论此参数的值如何,它都将始终运行。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,Elasticsearch 会刷新受影响的分片,使此操作对搜索可见;如果wait_for
,则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。有效值:true
、false
、wait_for
。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
timeout
(可选, 字符串 | -1 | 0): 请求等待以下操作的时间段:自动索引创建、动态映射更新、等待活动分片。 -
version
(可选, 数字): 用于并发控制的显式版本号。指定的版本必须与文档的当前版本匹配,请求才能成功。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型:external
、external_gte
。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。 -
require_alias
(可选, 布尔值): 如果为true
,则目标必须是索引别名。
-
info
编辑获取集群信息。返回有关集群的基本信息。
client.info()
knn_search
编辑运行 kNN 搜索。
kNN 搜索 API 已被搜索 API 中的 knn
选项替换。
对 dense_vector 字段执行 k 近邻 (kNN) 搜索,并返回匹配的文档。给定一个查询向量,API 会查找 k 个最接近的向量,并将这些文档作为搜索命中返回。
Elasticsearch 使用 HNSW 算法来支持高效的 kNN 搜索。与大多数 kNN 算法一样,HNSW 是一种近似方法,它牺牲结果精度来提高搜索速度。这意味着返回的结果不总是真正的 k 个最接近的邻居。
kNN 搜索 API 支持使用过滤器限制搜索。搜索将返回也匹配过滤器查询的前 k 个文档。
client.knnSearch({ index, knn })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 要搜索的索引名称列表;使用_all
或对所有索引执行操作 -
knn
({ field, query_vector, k, num_candidates }): 要执行的 kNN 查询 -
_source
(可选, 布尔值 | { excludes, includes }): 指示返回匹配文档的哪些源字段。这些字段在搜索响应的 hits._source 属性中返回。 -
docvalue_fields
(可选, { field, format, include_unmapped }[]): 该请求在响应的 hits.fields 属性中返回与这些模式匹配的字段名称的文档值。接受通配符 (*) 模式。 -
stored_fields
(可选, 字符串 | 字符串数组): 作为命中一部分返回的存储字段列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定了此字段,则 _source 参数默认为 false。您可以传递 _source: true 以在搜索响应中返回源字段和存储字段。 -
fields
(可选, 字符串 | 字符串数组): 该请求在响应的 hits.fields 属性中返回与这些模式匹配的字段名称的值。接受通配符 (*) 模式。 -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type } | { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }[]): 用于过滤可以匹配的文档的查询。kNN 搜索将返回也匹配此过滤器的前k
个文档。该值可以是单个查询或查询列表。如果未提供filter
,则允许所有文档匹配。 -
routing
(可选, 字符串): 特定路由值列表
-
mget
编辑获取多个文档。
从一个或多个索引中按 ID 获取多个 JSON 文档。如果在请求 URI 中指定了索引,则只需在请求正文中指定文档 ID。为确保快速响应,如果一个或多个分片失败,此多重获取 (mget) API 将响应部分结果。
client.mget({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串): 当指定ids
时,或当docs
数组中的文档未指定索引时,从中检索文档的索引名称。 -
docs
(可选, { _id, _index, routing, _source, stored_fields, version, version_type }[]): 要检索的文档。如果请求 URI 中未指定索引,则为必填项。 -
ids
(可选, 字符串 | 字符串数组): 要检索的文档的 ID。当在请求 URI 中指定索引时允许使用。 -
force_synthetic_source
(可选, 布尔值): 此请求是否应强制使用合成 _source?使用此选项可以测试映射是否支持合成 _source,并了解最坏情况下的性能。启用此选项的获取操作将比在索引中原生启用合成源要慢。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为true
,则请求是实时的,而不是近实时的。 -
refresh
(可选, 布尔值): 如果为true
,则请求会在检索文档之前刷新相关分片。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
_source
(可选, 布尔值 | 字符串 | 字符串数组): 返回_source
字段或不返回(true 或 false),或者返回字段列表。 -
_source_excludes
(可选, 字符串 | 字符串数组): 一个从响应中排除的源字段列表。您也可以使用此参数从_source_includes
查询参数中指定的子集中排除字段。 -
_source_includes
(可选, 字符串 | 字符串数组): 一个包含在响应中的源字段列表。如果指定此参数,则仅返回这些源字段。您可以使用_source_excludes
查询参数从此子集中排除字段。如果_source
参数为false
,则忽略此参数。 -
stored_fields
(可选, 字符串 | 字符串数组): 如果为true
,则检索索引中存储的文档字段,而不是文档的_source
。
-
msearch
编辑运行多个搜索。
请求的格式类似于批量 API 格式,并使用换行符分隔的 JSON (NDJSON) 格式。结构如下
header\n body\n header\n body\n
此结构经过专门优化,如果特定的搜索最终被重定向到另一个节点,则可以减少解析。
最后一行数据必须以换行符 \n
结尾。每个换行符前面可以有一个回车符 \r
。向此端点发送请求时,应将 Content-Type
标头设置为 application/x-ndjson
。
client.msearch({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 要搜索的数据流、索引和索引别名的列表。 -
searches
(可选, { allow_no_indices, expand_wildcards, ignore_unavailable, index, preference, request_cache, routing, search_type, ccs_minimize_roundtrips, allow_partial_search_results, ignore_throttled } | { aggregations, collapse, query, explain, ext, stored_fields, docvalue_fields, knn, from, highlight, indices_boost, min_score, post_filter, profile, rescore, script_fields, search_after, size, sort, _source, fields, terminate_after, stats, timeout, track_scores, track_total_hits, version, runtime_mappings, seq_no_primary_term, pit, suggest }[]) -
allow_no_indices
(可选, 布尔值): 如果为 false,则当任何通配符表达式、索引别名或 _all 值仅指向丢失或关闭的索引时,请求将返回错误。即使请求指向其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以 bar 开头,则指向 foo*,bar* 的请求会返回错误。 -
ccs_minimize_roundtrips
(可选, 布尔值): 如果为 true,则对于跨集群搜索请求,协调节点和远程集群之间的网络往返次数将最小化。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符表达式可以匹配的索引类型。如果请求可以定位数据流,则此参数确定通配符表达式是否匹配隐藏数据流。 -
ignore_throttled
(可选, 布尔值): 如果为 true,则在冻结时将忽略具体的、展开的或别名的索引。 -
ignore_unavailable
(可选, 布尔值): 如果为 true,则响应中不包含丢失或关闭的索引。 -
include_named_queries_score
(可选, 布尔值): 指示 hit.matched_queries 应呈现为包含与其分数关联的匹配查询名称的映射 (true),还是呈现为包含匹配查询名称的数组 (false)。此功能在搜索响应中的每次命中时重新运行每个命名查询。通常,这会给请求增加少量开销。但是,在大量命中上使用计算成本高昂的命名查询可能会增加大量开销。 -
max_concurrent_searches
(可选, 数字): 多搜索 API 可以执行的最大并发搜索数。 -
max_concurrent_shard_requests
(可选, 数字): 每个子搜索请求在每个节点上执行的最大并发分片请求数。 -
pre_filter_shard_size
(可选, 数字): 定义一个阈值,如果搜索请求扩展到的分片数超过该阈值,则强制执行预筛选往返,以基于查询重写预筛选搜索分片。如果例如分片无法基于其重写方法匹配任何文档(即,如果日期过滤器对于匹配是强制性的,但分片边界和查询是不相交的),则此筛选往返可以显着限制分片数。 -
rest_total_hits_as_int
(可选, 布尔值): 如果为 true,则响应中的 hits.total 将作为整数返回。默认为 false,返回一个对象。 -
routing
(可选, 字符串): 用于将搜索操作路由到特定分片的自定义路由值。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 指示在对返回的文档进行评分时是否应使用全局术语和文档频率。 -
typed_keys
(可选, 布尔值): 指定是否应在响应中为聚合和建议器名称添加各自类型的前缀。
-
msearch_template
编辑运行多个模板搜索。
client.msearchTemplate({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 要搜索的数据流、索引和别名的列表。支持通配符 (*
)。要搜索所有数据流和索引,请省略此参数或使用*
。 -
search_templates
(可选, { allow_no_indices, expand_wildcards, ignore_unavailable, index, preference, request_cache, routing, search_type, ccs_minimize_roundtrips, allow_partial_search_results, ignore_throttled } | { aggregations, collapse, query, explain, ext, stored_fields, docvalue_fields, knn, from, highlight, indices_boost, min_score, post_filter, profile, rescore, script_fields, search_after, size, sort, _source, fields, terminate_after, stats, timeout, track_scores, track_total_hits, version, runtime_mappings, seq_no_primary_term, pit, suggest }[]) -
ccs_minimize_roundtrips
(可选, 布尔值): 如果为true
,则对于跨集群搜索请求,网络往返次数将最小化。 -
max_concurrent_searches
(可选, 数字): API 可以运行的最大并发搜索数。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 搜索操作的类型。可用选项:query_then_fetch
、dfs_query_then_fetch
。 -
rest_total_hits_as_int
(可选, 布尔值): 如果为true
,则响应将返回hits.total
作为整数。如果为false
,则返回hits.total
作为对象。 -
typed_keys
(可选, 布尔值): 如果为true
,则响应会在聚合和建议器名称前加上各自的类型。
-
mtermvectors
编辑获取多个词项向量。
您可以通过索引和 ID 指定现有文档,或者在请求正文中提供人工文档。您可以在请求正文或请求 URI 中指定索引。响应包含一个 docs
数组,其中包含所有获取的词项向量。每个元素的结构由词项向量 API 提供。
client.mtermvectors({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串): 包含文档的索引的名称。 -
docs
(可选, { _id, _index, routing, _source, stored_fields, version, version_type }[]): 现有或人工文档的数组。 -
ids
(可选, 字符串数组): 如果文档位于同一索引中,则使用简化语法来按 ID 指定文档。 -
fields
(可选, 字符串 | 字符串数组): 要包含在统计信息中的字段的列表或通配符表达式。用作默认列表,除非在completion_fields
或fielddata_fields
参数中提供了特定的字段列表。 -
field_statistics
(可选, 布尔值): 如果为true
,则响应将包含文档计数、文档频率之和以及总词项频率之和。 -
offsets
(可选, 布尔值): 如果为true
,则响应将包含词项偏移量。 -
payloads
(可选, 布尔值): 如果为true
,则响应将包含词项有效负载。 -
positions
(可选, 布尔值): 如果为true
,则响应将包含词项位置。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为 true,则请求是实时的,而不是近实时的。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
term_statistics
(可选, 布尔值): 如果为 true,则响应将包含词项频率和文档频率。 -
version
(可选, 数字): 如果为true
,则返回作为命中的一部分的文档版本。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型。
-
open_point_in_time
编辑打开时间点。
搜索请求默认针对目标索引的最新可见数据运行,这称为时间点。Elasticsearch pit(时间点)是对启动时存在的数据状态的轻量级视图。在某些情况下,最好使用相同的时间点执行多个搜索请求。例如,如果在 search_after
请求之间发生刷新,则这些请求的结果可能不一致,因为搜索之间发生的变化仅对最近的时间点可见。
时间点必须先显式打开,然后才能在搜索请求中使用。keep_alive
参数告诉 Elasticsearch 它应该保留多长时间。
client.openPointInTime({ index, keep_alive })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 用于打开时间点的索引名称列表;使用_all
或空字符串对所有索引执行操作 -
keep_alive
(字符串 | -1 | 0): 延长相应时间点的生存时间。 -
index_filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 如果提供的查询在每个分片上重写为match_none
,则允许筛选索引。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
allow_partial_search_results
(可选, 布尔值):如果为false
,当分片丢失或不可用时,创建时间点请求会抛出异常。如果为true
,则时间点将包含请求时可用的所有分片。
-
ping
编辑Ping 集群。返回集群是否正在运行。
client.ping()
put_script
编辑创建或更新脚本或搜索模板。创建或更新存储的脚本或搜索模板。
client.putScript({ id, script })
参数
编辑-
请求 (对象)
-
id
(字符串):存储的脚本或搜索模板的标识符。在集群内必须是唯一的。 -
script
({ lang, options, source }):包含脚本或搜索模板、其参数和语言。 -
context
(可选, 字符串):脚本或搜索模板应运行的上下文。为了防止错误,API 会立即在此上下文中编译脚本或模板。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
rank_eval
编辑评估排名搜索结果。
评估一组典型搜索查询的排名搜索结果的质量。
client.rankEval({ requests })
参数
编辑-
请求 (对象)
-
requests
({ id, request, ratings, template_id, params }[]):一组典型的搜索请求,以及它们提供的评级。 -
index
(可选, 字符串 | 字符串[]):用于限制请求的数据流、索引和索引别名列表。支持通配符 (*
) 表达式。要定位集群中的所有数据流和索引,请省略此参数或使用_all
或*
。 -
metric
(可选, { precision, recall, mean_reciprocal_rank, dcg, expected_reciprocal_rank }):要计算的评估指标的定义。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则响应中不包括缺失或关闭的索引。 -
search_type
(可选, 字符串):搜索操作类型
-
reindex
编辑重新索引文档。将文档从源复制到目标。源可以是任何现有索引、别名或数据流。目标必须与源不同。例如,您不能将数据流重新索引到自身。
client.reindex({ dest, source })
参数
编辑-
请求 (对象)
-
dest
({ index, op_type, pipeline, routing, version_type }):您要复制到的目标。 -
source
({ index, query, remote, size, slice, sort, _source, runtime_mappings }):您要从中复制的源。 -
conflicts
(可选, 枚举("abort" | "proceed")):设置为 proceed 以便即使存在冲突也继续重新索引。 -
max_docs
(可选, 数字):要重新索引的最大文档数。 -
script
(可选, { source, id, params, lang, options }):在重新索引时运行以更新文档源或元数据的脚本。 -
size
(可选, 数字) -
refresh
(可选, 布尔值):如果为true
,则请求会刷新受影响的分片,使此操作对搜索可见。 -
requests_per_second
(可选, 浮点数):此请求的每秒子请求的限制。默认为无限制。 -
scroll
(可选, 字符串 | -1 | 0):指定应为滚动搜索保持索引一致视图的时间。 -
slices
(可选, 数字 | 枚举("auto")):此任务应被划分为的切片数。默认为 1 个切片,表示任务未被切分为子任务。 -
timeout
(可选, 字符串 | -1 | 0):每个索引操作等待自动创建索引、动态映射更新和等待活动分片的时间段。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。 -
wait_for_completion
(可选, 布尔值): 如果为true
,则请求会阻塞直到操作完成。 -
require_alias
(可选, 布尔值): 如果为true
,则目标必须是索引别名。
-
reindex_rethrottle
编辑限制重新索引操作。
更改特定重新索引操作的每秒请求数。
client.reindexRethrottle({ task_id })
参数
编辑-
请求 (对象)
-
task_id
(字符串):任务的标识符。 -
requests_per_second
(可选, 浮点数): 此请求的每秒子请求的节流阀。
-
render_search_template
编辑渲染搜索模板。
将搜索模板渲染为搜索请求主体。
client.renderSearchTemplate({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串):要渲染的搜索模板的 ID。如果未指定source
,则必须指定此参数或id
请求主体参数。 -
file
(可选, 字符串) -
params
(可选, Record<string, 用户定义值>):用于替换模板中 Mustache 变量的键值对。键是变量名。值是变量值。 -
source
(可选, 字符串):内联搜索模板。支持与搜索 API 请求主体相同的参数。这些参数还支持 Mustache 变量。如果未指定id
或<templated-id>
,则必须指定此参数。
-
scripts_painless_execute
编辑运行脚本。运行脚本并返回结果。
client.scriptsPainlessExecute({ ... })
参数
编辑-
请求 (对象)
-
context
(可选, 字符串):脚本应运行的上下文。 -
context_setup
(可选, { document, index, query }):context
的其他参数。 -
script
(可选, { source, id, params, lang, options }):要执行的 Painless 脚本。
-
scroll
编辑运行滚动搜索。
不再建议使用 scroll API 进行深度分页。如果需要在分页浏览超过 10,000 个匹配项时保留索引状态,请将 search_after
参数与时间点 (PIT) 一起使用。
scroll API 从单个滚动搜索请求中获取大量结果集。要获取必要的 scroll ID,请提交包含 scroll
查询参数参数的搜索 API 请求。scroll
参数指示 Elasticsearch 应为该请求保留搜索上下文的时间。搜索响应会在 _scroll_id
响应主体参数中返回一个 scroll ID。然后,您可以将 scroll ID 与 scroll API 一起使用,以检索该请求的下一批结果。如果启用了 Elasticsearch 安全功能,则对特定 scroll ID 结果的访问权限将限制为提交搜索的用户或 API 密钥。
您还可以使用 scroll API 指定一个新的 scroll 参数,该参数延长或缩短搜索上下文的保留时间。
滚动搜索的结果反映了初始搜索请求时索引的状态。后续索引或文档更改仅会影响后续的搜索和滚动请求。
client.scroll({ scroll_id })
参数
编辑-
请求 (对象)
-
scroll_id
(字符串):搜索的 Scroll ID。 -
scroll
(可选, 字符串 | -1 | 0): 用于滚动保留搜索上下文的时间段。 -
rest_total_hits_as_int
(可选, 布尔值):如果为 true,则 API 响应的 hit.total 属性将作为整数返回。如果为 false,则 API 响应的 hit.total 属性将作为对象返回。
-
search
编辑运行搜索。
获取与请求中定义的查询匹配的搜索匹配项。您可以使用 q
查询字符串参数或请求主体提供搜索查询。如果同时指定了两者,则仅使用查询参数。
client.search({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串[]): 要搜索的数据流、索引和别名列表。支持通配符 (*
)。要搜索所有数据流和索引,请省略此参数或使用*
或_all
。 -
aggregations
(可选, Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>):定义作为搜索请求一部分运行的聚合。 -
collapse
(可选, { field, inner_hits, max_concurrent_group_searches, collapse }):根据指定字段的值折叠搜索结果。 -
explain
(可选, 布尔值):如果为 true,则作为匹配项的一部分返回有关分数计算的详细信息。 -
ext
(可选, Record<string, 用户定义值>):由 Elasticsearch 插件定义的搜索扩展的配置。 -
from
(可选, 数字):起始文档偏移量。必须是非负数。默认情况下,您无法使用from
和size
参数浏览超过 10,000 个匹配项。要浏览更多匹配项,请使用search_after
参数。 -
highlight
(可选, { encoder, fields }):指定要用于从搜索结果中的一个或多个字段检索高亮显示片段的高亮器。 -
track_total_hits
(可选, 布尔值 | 数字):要精确计数匹配查询的匹配项数。如果为true
,则会返回确切的匹配项数,但会牺牲一些性能。如果为false
,则响应不包括与查询匹配的匹配项总数。 -
indices_boost
(可选, Record<string, number>[]):提高来自指定索引的文档的 _score。 -
docvalue_fields
(可选,{ field, format, include_unmapped }[]): 通配符 (*
) 模式数组。请求会返回与这些模式匹配的字段名称的文档值,这些值会出现在响应的hits.fields
属性中。 -
knn
(可选,{ field, query_vector, query_vector_builder, k, num_candidates, boost, filter, similarity, inner_hits } | { field, query_vector, query_vector_builder, k, num_candidates, boost, filter, similarity, inner_hits }[]): 定义要运行的近似 kNN 搜索。 -
rank
(可选,{ rrf }): 定义要使用的倒数排名融合 (RRF)。 -
min_score
(可选,数字): 匹配文档的最小_score
。_score
低于此值的文档将不包含在搜索结果中。 -
post_filter
(可选,{ bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用post_filter
参数来筛选搜索结果。搜索命中结果会在计算聚合之后进行筛选。后置过滤器不会影响聚合结果。 -
profile
(可选,布尔值): 设置为true
以返回有关搜索请求中各个组件执行的详细计时信息。注意:这是一个调试工具,会给搜索执行增加显著的开销。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 定义搜索定义。 -
rescore
(可选,{ window_size, query, learning_to_rank } | { window_size, query, learning_to_rank }[]): 可用于通过对query
和post_filter
阶段返回的最前面(例如 100 - 500 个)文档进行重新排序来提高精度。 -
retriever
(可选,{ standard, knn, rrf, text_similarity_reranker, rule }): 检索器是一种规范,用于描述从搜索返回的顶部文档。检索器会取代搜索 API 的其他也返回顶部文档的元素,如 query 和 knn。 -
script_fields
(可选,Record<string, { script, ignore_failure }>): 检索每个命中的脚本评估(基于不同的字段)。 -
search_after
(可选,数字 | 数字 | 字符串 | 布尔值 | null | 用户定义的值[]): 用于使用上一页的一组排序值来检索下一页命中结果。 -
size
(可选,数字): 要返回的命中数。默认情况下,您不能使用from
和size
参数分页浏览超过 10,000 个命中结果。要分页浏览更多命中结果,请使用search_after
参数。 -
slice
(可选,{ field, id, max }): 可用于将滚动搜索拆分为可以独立使用的多个切片。 -
sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]): <field>:<direction> 对的列表。 -
_source
(可选, 布尔值 | { excludes, includes }): 指示返回匹配文档的哪些源字段。这些字段在搜索响应的 hits._source 属性中返回。 -
fields
(可选,{ field, format, include_unmapped }[]): 通配符 (*
) 模式数组。请求会返回与这些模式匹配的字段名称的值,这些值会出现在响应的hits.fields
属性中。 -
suggest
(可选,{ text }): 定义一个建议器,该建议器基于提供的文本提供外观相似的术语。 -
terminate_after
(可选,数字): 每个分片要收集的最大文档数。如果查询达到此限制,Elasticsearch 将提前终止查询。Elasticsearch 会在排序之前收集文档。谨慎使用。Elasticsearch 会将此参数应用于处理请求的每个分片。如果可能,让 Elasticsearch 自动执行提前终止。避免为针对跨多个数据层具有支持索引的数据流的请求指定此参数。如果设置为0
(默认值),则查询不会提前终止。 -
timeout
(可选,字符串): 指定等待每个分片响应的时间段。如果在超时到期之前没有收到响应,则请求失败并返回错误。默认为无超时。 -
track_scores
(可选,布尔值): 如果为 true,则计算并返回文档得分,即使得分未用于排序。 -
version
(可选,布尔值): 如果为 true,则返回文档版本作为命中结果的一部分。 -
seq_no_primary_term
(可选,布尔值): 如果为true
,则返回每个命中的上次修改的序列号和主项。 -
stored_fields
(可选,字符串 | 字符串[]): 要作为命中结果一部分返回的存储字段的列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定此字段,则_source
参数默认为false
。您可以传递_source: true
以在搜索响应中返回源字段和存储字段。 -
pit
(可选,{ id, keep_alive }): 将搜索限制在时间点 (PIT)。如果提供 PIT,则不能在请求路径中指定<index>
。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 在搜索请求中定义一个或多个运行时字段。这些字段的优先级高于具有相同名称的映射字段。 -
stats
(可选,字符串[]): 与搜索关联的统计组。每个组维护其关联搜索的统计聚合。您可以使用索引统计 API 检索这些统计信息。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
allow_partial_search_results
(可选,布尔值): 如果为 true,则在出现分片请求超时或分片失败时返回部分结果。如果为 false,则返回错误,并且不返回任何部分结果。 -
analyzer
(可选,字符串): 用于查询字符串的分析器。仅当指定了 q 查询字符串参数时,才能使用此参数。 -
analyze_wildcard
(可选,布尔值): 如果为 true,则分析通配符和前缀查询。仅当指定了 q 查询字符串参数时,才能使用此参数。 -
batched_reduce_size
(可选,数字): 应该在协调节点上一次性缩减的分片结果的数量。如果请求中可能的分片数量很大,则应将此值用作一种保护机制,以减少每个搜索请求的内存开销。 -
ccs_minimize_roundtrips
(可选,布尔值): 如果为 true,则在执行跨集群搜索 (CCS) 请求时,协调节点与远程集群之间的网络往返次数会减少。 -
default_operator
(可选,Enum("and" | "or")): 查询字符串查询的默认运算符:AND 或 OR。仅当指定了q
查询字符串参数时,才能使用此参数。 -
df
(可选,字符串): 如果在查询字符串中未给出字段前缀,则用作默认值的字段。仅当指定了 q 查询字符串参数时,才能使用此参数。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
ignore_throttled
(可选,布尔值): 如果为true
,则在冻结时将忽略具体、展开或别名的索引。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
include_named_queries_score
(可选, 布尔值): 指示 hit.matched_queries 应呈现为包含与其分数关联的匹配查询名称的映射 (true),还是呈现为包含匹配查询名称的数组 (false)。此功能在搜索响应中的每次命中时重新运行每个命名查询。通常,这会给请求增加少量开销。但是,在大量命中上使用计算成本高昂的命名查询可能会增加大量开销。 -
lenient
(可选,布尔值): 如果为true
,则会忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。仅当指定了q
查询字符串参数时,才能使用此参数。 -
max_concurrent_shard_requests
(可选,数字): 定义此搜索在每个节点上并发执行的并发分片请求数。应使用此值来限制搜索对集群的影响,以限制并发分片请求的数量。 -
min_compatible_shard_node
(可选,字符串): 可以处理请求的节点的最低版本。任何处理节点的版本低于此版本都将导致请求失败。 -
preference
(可选,字符串): 用于搜索的节点和分片。默认情况下,Elasticsearch 使用自适应副本选择从符合条件的节点和分片中进行选择,并考虑分配感知。有效值包括:_only_local
仅在本地节点上的分片上运行搜索;_local
如果可能,在本地节点上的分片上运行搜索,否则,使用默认方法选择分片;_only_nodes:<node-id>,<node-id>
仅在指定的节点 ID 上运行搜索,其中,如果合适的分片存在于多个选定节点上,则使用这些节点上的分片(使用默认方法),或者如果没有可用的指定节点,则使用默认方法从任何可用节点选择分片;_prefer_nodes:<node-id>,<node-id>
如果可能,在指定的节点 ID 上运行搜索,否则,使用默认方法选择分片;_shards:<shard>,<shard>
仅在指定的分片上运行搜索;<custom-string>
(任何不以_
开头的字符串)将具有相同<custom-string>
的搜索路由到相同的分片,并按相同的顺序排列。 -
pre_filter_shard_size
(可选,数字):定义一个阈值,如果搜索请求扩展到的分片数量超过该阈值,则强制执行预过滤往返,以根据查询重写来预过滤搜索分片。如果某个分片基于其重写方法无法匹配任何文档(例如,如果日期过滤器是匹配的必要条件,但分片边界和查询是不相交的),则此过滤往返可以显著限制分片的数量。如果未指定,则在满足以下任何条件时执行预过滤阶段:请求目标超过 128 个分片;请求目标一个或多个只读索引;查询的主排序目标是一个索引字段。 -
request_cache
(可选,布尔值):如果为true
,则为size
为0
的请求启用搜索结果缓存。默认为索引级别设置。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
scroll
(可选,字符串 | -1 | 0):保留滚动搜索上下文的时间段。请参阅滚动搜索结果。默认情况下,此值不能超过1d
(24 小时)。您可以使用search.max_keep_alive
集群级别设置更改此限制。 -
search_type
(可选,枚举值("query_then_fetch" | "dfs_query_then_fetch")):如何计算用于相关性评分的分布式词频。 -
suggest_field
(可选,字符串):指定用于建议的字段。 -
suggest_mode
(可选,枚举值("missing" | "popular" | "always")):指定建议模式。仅当指定suggest_field
和suggest_text
查询字符串参数时,才能使用此参数。 -
suggest_size
(可选,数字):要返回的建议数量。仅当指定suggest_field
和suggest_text
查询字符串参数时,才能使用此参数。 -
suggest_text
(可选,字符串):应返回建议的源文本。仅当指定suggest_field
和suggest_text
查询字符串参数时,才能使用此参数。 -
typed_keys
(可选,布尔值):如果为true
,则聚合和建议器名称在响应中会带有各自类型的前缀。 -
rest_total_hits_as_int
(可选,布尔值):指示hits.total
在 rest 搜索响应中应呈现为整数还是对象。 -
_source_excludes
(可选,字符串 | 字符串数组):要从响应中排除的源字段列表。您还可以使用此参数从_source_includes
查询参数中指定的子集中排除字段。如果_source
参数为false
,则忽略此参数。 -
_source_includes
(可选, 字符串 | 字符串数组): 一个包含在响应中的源字段列表。如果指定此参数,则仅返回这些源字段。您可以使用_source_excludes
查询参数从此子集中排除字段。如果_source
参数为false
,则忽略此参数。 -
q
(可选,字符串):使用查询参数搜索的 Lucene 查询字符串语法中的查询。查询参数搜索不支持完整的 Elasticsearch 查询 DSL,但便于测试。 -
force_synthetic_source
(可选, 布尔值): 此请求是否应强制使用合成 _source?使用此选项可以测试映射是否支持合成 _source,并了解最坏情况下的性能。启用此选项的获取操作将比在索引中原生启用合成源要慢。
-
search_mvt
编辑搜索矢量切片。
搜索矢量切片以获取地理空间值。
client.searchMvt({ index, field, zoom, x, y })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组):要搜索的数据流、索引或别名列表 -
field
(字符串):包含要返回的地理空间数据的字段 -
zoom
(数字):要搜索的矢量切片的缩放级别 -
x
(数字):要搜索的矢量切片的 X 坐标 -
y
(数字):要搜索的矢量切片的 Y 坐标 -
aggs
(可选,Record<字符串, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>):geotile_grid 的子聚合。
-
支持以下聚合类型:- avg - cardinality - max - min - sum buffer
(可选,数字):切片外部的裁剪缓冲区的大小(以像素为单位)。这允许渲染器避免几何图形超出切片范围时产生的轮廓伪影。 exact_bounds
(可选,布尔值):如果为 false,则元图层的要素是切片的边界框。如果为 true,则元图层的要素是从 geo_bounds 聚合产生的边界框。聚合在与 <zoom>
/<x>
/<y>
切片相交且 wrap_longitude 设置为 false 的 <field>
值上运行。生成的边界框可能大于矢量切片。 extent
(可选,数字):切片一侧的大小(以像素为单位)。矢量切片是边长相等的正方形。 fields
(可选,字符串 | 字符串数组):要在 hits
图层中返回的字段。支持通配符 (*
)。此参数不支持具有数组值的字段。具有数组值的字段可能会返回不一致的结果。 grid_agg
(可选,枚举值("geotile" | "geohex")):用于为 field
创建网格的聚合。 grid_precision
(可选,数字):可通过 aggs 图层使用的其他缩放级别。例如,如果 <zoom>
为 7 且 grid_precision 为 8,则最多可以放大到级别 15。接受 0-8。如果为 0,则结果不包含 aggs 图层。 grid_type
(可选,枚举值("grid" | "point" | "centroid")):确定 aggs 图层中要素的几何类型。在 aggs 图层中,每个要素都表示一个 geotile_grid 单元格。如果为 *grid*,则每个要素都是单元格边界框的 Polygon。如果为 *point*,则每个要素都是单元格质心的 Point。 query
(可选,{ bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):用于筛选搜索文档的查询 DSL。 runtime_mappings
(可选,Record<字符串, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>):在搜索请求中定义一个或多个运行时字段。这些字段优先于具有相同名称的映射字段。 size
(可选,数字):hits 图层中要返回的最大要素数量。接受 0-10000。如果为 0,则结果不包含 hits 图层。 sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]):对 hits 图层中的要素进行排序。默认情况下,API 计算每个要素的边界框。它根据此框的对角线长度对要素进行排序,从最长到最短。 track_total_hits
(可选,布尔值 | 数字):准确计算与查询匹配的命中次数。如果为 true
,则会返回确切的命中次数,但会牺牲一些性能。如果为 false
,则响应不包含与查询匹配的命中总数。* *with_labels
(可选,布尔值):如果为 true
,则 hits 和 aggs 图层将包含额外的点要素,这些要素表示原始要素的建议标签位置。
search_shards
编辑获取搜索分片。
获取将针对其运行搜索请求的索引和分片。此信息对于解决问题或规划路由和分片首选项的优化非常有用。使用筛选的别名时,筛选器将作为索引部分的一部分返回。
client.searchShards({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串数组):返回将针对其执行搜索请求的索引和分片。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。
-
search_template
编辑使用搜索模板运行搜索。
client.searchTemplate({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串数组):要搜索的数据流、索引和别名列表。支持通配符 (*)。 -
explain
(可选,布尔值):如果为true
,则返回关于每个命中的一部分的分数计算的详细信息。 -
id
(可选,字符串):要使用的搜索模板的 ID。如果未指定源,则此参数是必需的。 -
params
(可选, Record<string, 用户定义值>):用于替换模板中 Mustache 变量的键值对。键是变量名。值是变量值。 -
profile
(可选,布尔值):如果为true
,则会对查询执行进行分析。 -
source
(可选, 字符串): 内联搜索模板。支持与搜索 API 请求体相同的参数。也支持 Mustache 变量。如果未指定 id,则此参数是必需的。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
ccs_minimize_roundtrips
(可选, 布尔值): 如果为true
,则对于跨集群搜索请求,网络往返次数将最小化。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_throttled
(可选, 布尔值): 如果为true
,则在受到限制时,响应中不包含指定的具体索引、扩展索引或别名索引。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
scroll
(可选, 字符串 | -1 | 0):指定应为滚动搜索保持索引一致视图的时间。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 搜索操作的类型。 -
rest_total_hits_as_int
(可选, 布尔值): 如果为 true,则响应中的 hits.total 将呈现为整数。 -
typed_keys
(可选, 布尔值): 如果为true
,则响应会在聚合和建议器名称前加上各自的类型。
-
terms_enum
编辑获取索引中的词条。
在索引中发现与部分字符串匹配的词条。此“词条枚举”API 专为自动完成场景中使用的低延迟查找而设计。
如果响应中的 complete
属性为 false,则返回的词条集可能不完整,应视为近似值。这可能是由一些原因导致的,例如请求超时或节点错误。
词条枚举 API 可能会返回已删除文档中的词条。删除的文档最初仅标记为已删除。只有在合并其段后,文档才会实际被删除。在此之前,词条枚举 API 将返回这些文档中的词条。
client.termsEnum({ index, field })
参数
编辑-
请求 (对象)
-
index
(字符串): 要搜索的数据流、索引和索引别名列表。支持通配符 (*) 表达式。 -
field
(字符串): 在索引词条的开头匹配的字符串。如果未提供,则将考虑该字段中的所有词条。 -
size
(可选, 数字): 要返回的匹配词条的数量。 -
timeout
(可选, 字符串 | -1 | 0): 收集结果所花费的最大时间长度。默认为 "1s"(一秒)。如果超时,则响应中的 complete 标志设置为 false,并且结果可能是不完整的或为空。 -
case_insensitive
(可选, 布尔值): 如果为 true,则提供的搜索字符串将与索引词条进行匹配,而不区分大小写。 -
index_filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 如果提供的查询重写为 match_none,则允许过滤索引分片。 -
string
(可选, 字符串): 索引中应返回其后词条的字符串。如果将一个请求的最后一个结果作为后续请求的 search_after 参数传递,则允许进行一种形式的分页。 -
search_after
(可选, 字符串)
-
termvectors
编辑获取词条向量信息。
获取有关特定文档字段中词条的信息和统计数据。
client.termvectors({ index })
参数
编辑-
请求 (对象)
-
index
(字符串): 包含文档的索引的名称。 -
id
(可选, 字符串): 文档的唯一标识符。 -
doc
(可选, 对象): 要检索词条向量的人工文档(索引中不存在的文档)。 -
filter
(可选, { max_doc_freq, max_num_terms, max_term_freq, max_word_length, min_doc_freq, min_term_freq, min_word_length }): 根据词条的 tf-idf 分数过滤词条。 -
per_field_analyzer
(可选, Record<string, string>): 覆盖默认的按字段分析器。 -
fields
(可选, 字符串 | 字符串数组): 要包含在统计信息中的字段的列表或通配符表达式。用作默认列表,除非在completion_fields
或fielddata_fields
参数中提供了特定的字段列表。 -
field_statistics
(可选, 布尔值): 如果为true
,则响应将包含文档计数、文档频率之和以及总词项频率之和。 -
offsets
(可选, 布尔值): 如果为true
,则响应将包含词项偏移量。 -
payloads
(可选, 布尔值): 如果为true
,则响应将包含词项有效负载。 -
positions
(可选, 布尔值): 如果为true
,则响应将包含词项位置。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
realtime
(可选, 布尔值): 如果为 true,则请求是实时的,而不是近实时的。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
term_statistics
(可选, 布尔值): 如果为true
,则响应包括词条频率和文档频率。 -
version
(可选, 数字): 如果为true
,则返回作为命中的一部分的文档版本。 -
version_type
(可选, 枚举("internal" | "external" | "external_gte" | "force")): 特定版本类型。
-
update
编辑更新文档。通过运行脚本或传递部分文档来更新文档。
client.update({ id, index })
参数
编辑-
请求 (对象)
-
id
(字符串): 文档 ID -
index
(字符串): 索引的名称 -
detect_noop
(可选, 布尔值): 设置为 false 以禁用在未对文档进行任何更改时将响应中的result设置为noop。 -
doc
(可选, 对象): 对现有文档的部分更新。 -
doc_as_upsert
(可选, 布尔值): 设置为 true 以使用 doc 的内容作为 upsert 的值 -
script
(可选, { source, id, params, lang, options }): 用于更新文档的脚本。 -
scripted_upsert
(可选, 布尔值): 设置为 true 以在文档是否存在时都执行脚本。 -
_source
(可选, 布尔值 | { excludes, includes }): 设置为 false 以禁用源检索。您还可以指定要检索的字段的逗号分隔列表。 -
upsert
(可选, 对象): 如果文档尚不存在,则将 upsert 的内容作为新文档插入。如果文档存在,则执行 script。 -
if_primary_term
(可选, 数字): 仅当文档具有此主要术语时才执行操作。 -
if_seq_no
(可选, 数字): 仅当文档具有此序列号时才执行操作。 -
lang
(可选, 字符串): 脚本语言。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见;如果为 wait_for,则等待刷新以使此操作对搜索可见;如果为 false,则不进行任何刷新操作。 -
require_alias
(可选, 布尔值): 如果为 true,则目标必须是索引别名。 -
retry_on_conflict
(可选, 数字): 指定发生冲突时应重试操作的次数。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
timeout
(可选, 字符串 | -1 | 0): 等待动态映射更新和活动分片的时间段。这保证了 Elasticsearch 在失败之前至少等待超时时间。实际等待时间可能会更长,尤其是在发生多次等待时。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为 all 或任何正整数,直到索引中的分片总数(number_of_replicas+1)。默认为 1,表示主分片。 -
_source_excludes
(可选, 字符串 | 字符串[]): 指定要排除的源字段。 -
_source_includes
(可选, 字符串 | 字符串[]): 指定要检索的源字段。
-
update_by_query
编辑更新文档。更新与指定查询匹配的文档。如果未指定查询,则对数据流或索引中的每个文档执行更新,而不修改源,这对于拾取映射更改非常有用。
client.updateByQuery({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 要搜索的数据流、索引和别名列表。支持通配符 (*
)。要搜索所有数据流或索引,请省略此参数或使用*
或_all
。 -
max_docs
(可选, 数字): 要更新的最大文档数。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 指定要更新的文档。 -
script
(可选, { source, id, params, lang, options }): 在更新时运行以更新文档源或元数据的脚本。 -
slice
(可选, { field, id, max }): 使用提供的切片 ID 和切片总数手动切分请求。 -
conflicts
(可选, 枚举("abort" | "proceed")): 如果按查询更新遇到版本冲突该怎么办:abort
或proceed
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
analyzer
(可选, 字符串): 用于查询字符串的分析器。 -
analyze_wildcard
(可选, 布尔值): 如果为true
,则会分析通配符和前缀查询。 -
default_operator
(可选, 枚举("and" | "or")): 查询字符串查询的默认运算符:AND
或OR
。 -
df
(可选, 字符串): 在查询字符串中未给出字段前缀时,用作默认值的字段。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
from
(可选, 数字): 起始偏移量(默认为 0) -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
lenient
(可选, 布尔值): 如果为true
,则将忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。 -
pipeline
(可选, 字符串): 用于预处理传入文档的管道 ID。如果索引指定了默认的摄取管道,则将该值设置为_none
将禁用此请求的默认摄取管道。如果配置了最终管道,则无论此参数的值如何,它都将始终运行。 -
preference
(可选, 字符串): 指定应在其上执行操作的节点或分片。默认情况下为随机。 -
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。 -
refresh
(可选, 布尔值): 如果为true
,则 Elasticsearch 会刷新受影响的分片以使该操作对搜索可见。 -
request_cache
(可选, 布尔值): 如果为true
,则此请求使用请求缓存。 -
requests_per_second
(可选, 浮点数): 此请求的每秒子请求的节流阀。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
scroll
(可选, 字符串 | -1 | 0): 用于滚动保留搜索上下文的时间段。 -
scroll_size
(可选, 数字): 为操作提供支持的滚动请求的大小。 -
search_timeout
(可选, 字符串 | -1 | 0): 每个搜索请求的显式超时。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 搜索操作的类型。可用选项:query_then_fetch
、dfs_query_then_fetch
。 -
slices
(可选, 数字 | 枚举("auto")): 此任务应被划分成的切片数。 -
sort
(可选, 字符串数组): <字段>:<方向> 对的列表。 -
stats
(可选, 字符串数组): 用于记录和统计的请求的特定tag
。 -
terminate_after
(可选, 数字): 每个分片要收集的最大文档数。如果查询达到此限制,Elasticsearch 将提前终止查询。Elasticsearch 会在排序之前收集文档。请谨慎使用。Elasticsearch 将此参数应用于处理请求的每个分片。在可能的情况下,让 Elasticsearch 自动执行提前终止。对于目标是跨多个数据层具有后备索引的数据流的请求,请避免指定此参数。 -
timeout
(可选, 字符串 | -1 | 0): 每个更新请求等待以下操作的时间段:动态映射更新、等待活动分片。 -
version
(可选, 布尔值): 如果为true
,则返回文档版本作为命中结果的一部分。 -
version_type
(可选, 布尔值): 文档在命中时是否应增加版本号(内部),或者不增加(重新索引)。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。 -
wait_for_completion
(可选, 布尔值): 如果为true
,则请求会阻塞直到操作完成。
-
update_by_query_rethrottle
编辑限制按查询更新操作。
通过查询操作更改特定更新的每秒请求数。加快查询速度的重新限流会立即生效,但减慢查询速度的重新限流会在完成当前批次后生效,以防止滚动超时。
client.updateByQueryRethrottle({ task_id })
参数
编辑-
请求 (对象)
-
task_id
(字符串):任务的 ID。 -
requests_per_second
(可选, 浮点数): 此请求的每秒子请求的节流阀。
-
async_search
编辑删除
编辑删除异步搜索。
如果异步搜索仍在运行,则会取消。否则,将删除已保存的搜索结果。如果启用了 Elasticsearch 安全功能,则特定异步搜索的删除仅限于:提交原始搜索请求的已验证用户;具有 cancel_task
集群权限的用户。
client.asyncSearch.delete({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):异步搜索的唯一标识符。
-
获取
编辑获取异步搜索结果。
检索先前提交的异步搜索请求的结果。如果启用了 Elasticsearch 安全功能,则对特定异步搜索结果的访问仅限于提交该请求的用户或 API 密钥。
client.asyncSearch.get({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):异步搜索的唯一标识符。 -
keep_alive
(可选, 字符串 | -1 | 0):指定异步搜索在集群中应保留多长时间。如果未指定,将使用相应的提交异步请求设置的keep_alive
。否则,可以覆盖该值并延长请求的有效期。当此期限过期时,如果搜索仍在运行,则会取消。如果搜索已完成,则会删除其已保存的结果。 -
typed_keys
(可选, 布尔值):指定是否应在响应中为聚合和建议器名称添加各自类型的前缀 -
wait_for_completion_timeout
(可选, 字符串 | -1 | 0):指定等待搜索完成的时间,直到达到提供的超时时间。如果超时之前可用,将返回最终结果,否则,一旦超时过期,将返回当前可用的结果。默认情况下,不设置超时,这意味着将返回当前可用的结果,而无需任何额外等待。
-
状态
编辑获取异步搜索状态。
获取先前提交的异步搜索请求的状态(给定其标识符),而无需检索搜索结果。如果启用了 Elasticsearch 安全功能,则此 API 的使用仅限于 monitoring_user
角色。
client.asyncSearch.status({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):异步搜索的唯一标识符。 -
keep_alive
(可选, 字符串 | -1 | 0):指定异步搜索需要保持多长时间。在此期限之后,正在进行的异步搜索和任何已保存的搜索结果都将被删除。
-
提交
编辑运行异步搜索。
当结果的主要排序是索引字段时,分片将根据它们保存的该字段的最小值和最大值进行排序。根据所请求的排序标准,部分结果可用。
警告:异步搜索不支持滚动或仅包含建议部分的搜索请求。
默认情况下,Elasticsearch 不允许存储大于 10Mb 的异步搜索响应,尝试执行此操作会导致错误。可以通过更改 search.max_async_search_response_size
集群级设置来设置存储的异步搜索响应的最大允许大小。
client.asyncSearch.submit({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组):要搜索的索引名称列表;使用_all
或空字符串在所有索引上执行操作 -
aggregations
(可选, Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>) -
collapse
(可选, { field, inner_hits, max_concurrent_group_searches, collapse }) -
explain
(可选, 布尔值):如果为 true,则作为匹配项的一部分返回有关分数计算的详细信息。 -
ext
(可选, Record<string, 用户定义值>):由 Elasticsearch 插件定义的搜索扩展的配置。 -
from
(可选, 数字):起始文档偏移量。默认情况下,您不能使用 from 和 size 参数分页浏览超过 10,000 个命中。要分页浏览更多命中,请使用 search_after 参数。 -
highlight
(可选, { encoder, fields }) -
track_total_hits
(可选, 布尔值 | 数字):精确计数匹配查询的命中数。如果为 true,则会以一定的性能开销返回精确的命中数。如果为 false,则响应不包含与查询匹配的命中总数。默认为 10,000 个命中。 -
indices_boost
(可选, Record<string, number>[]):提高来自指定索引的文档的 _score。 -
docvalue_fields
(可选, { field, format, include_unmapped }[]):通配符 (*) 模式的数组。请求返回匹配这些模式的字段名称的文档值,位于响应的 hits.fields 属性中。 -
knn
(可选,{ field, query_vector, query_vector_builder, k, num_candidates, boost, filter, similarity, inner_hits } | { field, query_vector, query_vector_builder, k, num_candidates, boost, filter, similarity, inner_hits }[]): 定义要运行的近似 kNN 搜索。 -
min_score
(可选, 数字):匹配文档的最小 _score。_score 较低的文档不包括在搜索结果中。 -
post_filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }) -
profile
(可选, 布尔值) -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 定义搜索定义。 -
rescore
(可选, { window_size, query, learning_to_rank } | { window_size, query, learning_to_rank }[]) -
script_fields
(可选,Record<string, { script, ignore_failure }>): 检索每个命中的脚本评估(基于不同的字段)。 -
search_after
(可选, 数字 | 数字 | 字符串 | 布尔值 | null | 用户定义的值数组) -
size
(可选, 数字):要返回的命中数。默认情况下,您不能使用 from 和 size 参数分页浏览超过 10,000 个命中。要分页浏览更多命中,请使用 search_after 参数。 -
slice
(可选, { field, id, max }) -
sort
(可选, 字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]) -
_source
(可选, 布尔值 | { excludes, includes }): 指示返回匹配文档的哪些源字段。这些字段在搜索响应的 hits._source 属性中返回。 -
fields
(可选, { field, format, include_unmapped }[]):通配符 (*) 模式的数组。请求返回与这些模式匹配的字段名称的值,位于响应的 hits.fields 属性中。 -
suggest
(可选, { text }) -
terminate_after
(可选, 数字):每个分片要收集的最大文档数。如果查询达到此限制,Elasticsearch 会提前终止查询。Elasticsearch 在排序之前收集文档。默认为 0,表示不提前终止查询执行。 -
timeout
(可选,字符串): 指定等待每个分片响应的时间段。如果在超时到期之前没有收到响应,则请求失败并返回错误。默认为无超时。 -
track_scores
(可选,布尔值): 如果为 true,则计算并返回文档得分,即使得分未用于排序。 -
version
(可选,布尔值): 如果为 true,则返回文档版本作为命中结果的一部分。 -
seq_no_primary_term
(可选, 布尔值):如果为 true,则返回每个命中的最后一次修改的序列号和主项。请参阅乐观并发控制。 -
stored_fields
(可选, 字符串 | 字符串数组): 作为命中一部分返回的存储字段列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定了此字段,则 _source 参数默认为 false。您可以传递 _source: true 以在搜索响应中返回源字段和存储字段。 -
pit
(可选, { id, keep_alive }):将搜索限制为时间点 (PIT)。如果提供 PIT,则不能在请求路径中指定 <index>。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 在搜索请求中定义一个或多个运行时字段。这些字段的优先级高于具有相同名称的映射字段。 -
stats
(可选,字符串[]): 与搜索关联的统计组。每个组维护其关联搜索的统计聚合。您可以使用索引统计 API 检索这些统计信息。 -
wait_for_completion_timeout
(可选, 字符串 | -1 | 0):阻止并等待搜索完成,直到达到某个超时时间。当异步搜索在超时时间内完成时,响应将不包含 ID,因为结果不会存储在集群中。 -
keep_on_completion
(可选, 布尔值):如果true
,则当搜索在wait_for_completion_timeout
内完成时,结果将存储以供稍后检索。 -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
allow_partial_search_results
(可选, 布尔值):指示如果出现部分搜索失败或超时是否应返回错误 -
analyzer
(可选, 字符串):用于查询字符串的分析器 -
analyze_wildcard
(可选, 布尔值):指定是否应分析通配符和前缀查询 (默认值: false) -
batched_reduce_size
(可选, 数字):影响部分结果变为可用的频率,这会在分片结果减少时发生。每次协调节点收到一定数量的新分片响应(默认情况下为 5)时,都会执行部分减少。 -
ccs_minimize_roundtrips
(可选, 布尔值):默认值是唯一支持的值。 -
default_operator
(可选, 枚举("and" | "or")):查询字符串查询的默认运算符(AND 或 OR) -
df
(可选, 字符串):在查询字符串中未给出字段前缀时,用作默认值的字段 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
ignore_throttled
(可选, 布尔值):当指定的具体、扩展或别名索引受到限制时是否应忽略 -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略 -
lenient
(可选, 布尔值):指定是否应忽略基于格式的查询失败(例如,为数字字段提供文本) -
max_concurrent_shard_requests
(可选, 数字):此搜索每个节点并发执行的最大并发分片请求数。此值应用于限制搜索对集群的影响,以限制并发分片请求的数量 -
min_compatible_shard_node
(可选, 字符串) -
preference
(可选, 字符串):指定应在其上执行操作的节点或分片(默认值:随机) -
request_cache
(可选, 布尔值):指定是否应为此请求使用请求缓存,默认为 true -
routing
(可选, 字符串): 特定路由值列表 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")):搜索操作类型 -
suggest_field
(可选,字符串):指定用于建议的字段。 -
suggest_mode
(可选, 枚举("missing" | "popular" | "always")):指定建议模式 -
suggest_size
(可选, 数字):响应中要返回的建议数 -
suggest_text
(可选, 字符串): 应返回建议的源文本。 -
typed_keys
(可选, 布尔值):指定是否应在响应中为聚合和建议器名称添加各自类型的前缀 -
rest_total_hits_as_int
(可选, 布尔值): 指示在 rest 搜索响应中,hits.total 应渲染为整数还是对象 -
_source_excludes
(可选, 字符串 | 字符串数组): 要从返回的 _source 字段中排除的字段列表 -
_source_includes
(可选, 字符串 | 字符串数组): 要从 _source 字段中提取并返回的字段列表 -
q
(可选, 字符串): Lucene 查询字符串语法中的查询
-
自动缩放
编辑delete_autoscaling_policy
编辑删除自动缩放策略。
此功能设计为供 Elasticsearch Service、Elastic Cloud Enterprise 和 Elastic Cloud on Kubernetes 间接使用。不支持直接使用。
client.autoscaling.deleteAutoscalingPolicy({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 自动缩放策略的名称 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_autoscaling_capacity
编辑获取自动缩放容量。
此功能设计为供 Elasticsearch Service、Elastic Cloud Enterprise 和 Elastic Cloud on Kubernetes 间接使用。不支持直接使用。
此 API 根据配置的自动缩放策略获取当前自动缩放容量。它将返回信息,以便根据当前工作负载调整集群的大小。
required_capacity
计算为策略启用的所有单个决策者的 required_capacity
结果的最大值。
操作员应验证 current_nodes
是否与操作员所知的集群匹配,以避免基于过时或不完整的信息做出自动缩放决策。
响应包含特定于决策者的信息,您可以使用这些信息来诊断自动缩放如何以及为什么确定需要特定容量。此信息仅供诊断使用。请勿使用此信息来做出自动缩放决策。
client.autoscaling.getAutoscalingCapacity({ ... })
参数
编辑-
请求 (对象)
-
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_autoscaling_policy
编辑获取自动缩放策略。
此功能设计为供 Elasticsearch Service、Elastic Cloud Enterprise 和 Elastic Cloud on Kubernetes 间接使用。不支持直接使用。
client.autoscaling.getAutoscalingPolicy({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 自动缩放策略的名称 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_autoscaling_policy
编辑创建或更新自动缩放策略。
此功能设计为供 Elasticsearch Service、Elastic Cloud Enterprise 和 Elastic Cloud on Kubernetes 间接使用。不支持直接使用。
client.autoscaling.putAutoscalingPolicy({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 自动缩放策略的名称 -
policy
(可选, { roles, deciders }) -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
cat
编辑别名
编辑获取别名。检索集群的索引别名,包括筛选器和路由信息。该 API 不返回数据流别名。
CAT API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用别名 API。
client.cat.aliases({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串 | 字符串数组): 要检索的别名列表。支持通配符 (*
)。要检索所有别名,请省略此参数或使用*
或_all
。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。
-
分配
编辑提供分配给每个数据节点的分片数及其磁盘空间的快照。重要提示:cat API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。
client.cat.allocation({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点标识符或名称的列表。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。
-
组件模板
编辑获取组件模板。返回有关集群中组件模板的信息。组件模板是构建索引模板的构建块,这些模板指定索引映射、设置和别名。
CAT API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用获取组件模板 API。
client.cat.componentTemplates({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串): 组件模板的名称。接受通配符表达式。如果省略,则返回所有组件模板。
-
计数
编辑获取文档计数。提供对数据流、索引或整个集群的文档计数的快速访问。文档计数仅包括实时文档,不包括尚未被合并过程删除的已删除文档。
CAT API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用计数 API。
client.cat.count({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。
-
fielddata
编辑返回集群中每个数据节点上当前由字段数据缓存使用的堆内存量。重要提示:cat API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用节点统计信息 API。
client.cat.fielddata({ ... })
参数
编辑-
请求 (对象)
-
fields
(可选, 字符串 | 字符串数组): 用于限制返回信息的字段列表。要检索所有字段,请省略此参数。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。
-
健康状态
编辑返回集群的健康状态,类似于集群健康状态 API。重要提示:cat API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用集群健康状态 API。此 API 通常用于检查发生故障的集群。为了帮助您跟踪集群健康状态以及日志文件和警报系统,API 以两种格式返回时间戳:HH:MM:SS
,这是人类可读的,但不包含日期信息;Unix epoch time
,这是机器可排序的,并且包含日期信息。后一种格式对于需要多天才能完成的集群恢复非常有用。您可以使用 cat 健康状态 API 来验证多个节点上的集群健康状态。您还可以使用 API 跟踪大型集群在较长时间内的恢复情况。
client.cat.health({ ... })
参数
编辑-
请求 (对象)
-
time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 用于显示时间值的单位。 -
ts
(可选, 布尔值): 如果为 true,则返回HH:MM:SS
和 Unix 时间戳。
-
帮助
编辑获取 CAT 帮助。返回 CAT API 的帮助信息。
client.cat.help()
索引
编辑获取索引信息。返回有关集群中索引的高级信息,包括数据流的后备索引。
使用此请求获取集群中每个索引的以下信息: - 分片计数 - 文档计数 - 已删除文档计数 - 主要存储大小 - 所有分片(包括分片副本)的总存储大小
这些指标直接从 Lucene 中检索,Elasticsearch 在内部使用 Lucene 来支持索引和搜索。因此,所有文档计数都包含隐藏的嵌套文档。要获得 Elasticsearch 文档的准确计数,请使用 cat 计数或计数 API。
CAT API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用索引端点。
client.cat.indices({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。 -
health
(可选, 枚举("green" | "yellow" | "red")): 用于限制返回索引的健康状态。默认情况下,响应包括任何健康状态的索引。 -
include_unloaded_segments
(可选, 布尔值): 如果为 true,则响应包括来自未加载到内存中的段的信息。 -
pri
(可选, 布尔值): 如果为 true,则响应仅包括来自主分片的信息。 -
time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 用于显示时间值的单位。
-
主节点
编辑返回有关主节点的信息,包括 ID、绑定的 IP 地址和名称。重要提示:cat API 仅供使用命令行或 Kibana 控制台的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用节点信息 API。
client.cat.master()
ml_data_frame_analytics
编辑获取数据帧分析作业。返回有关数据帧分析作业的配置和使用信息。
CAT API 仅供使用 Kibana 控制台或命令行的人员使用。它们不适合应用程序使用。对于应用程序使用,请使用获取数据帧分析作业统计信息 API。
client.cat.mlDataFrameAnalytics({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 要获取的数据帧分析的 ID -
allow_no_match
(可选, 布尔值): 如果通配符表达式不匹配任何配置(包括_all
字符串或未指定任何配置时),是否忽略。(This includes_all
string or when no configs have been specified) -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位 -
h
(可选, 枚举("assignment_explanation" | "create_time" | "description" | "dest_index" | "failure_reason" | "id" | "model_memory_limit" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "progress" | "source_index" | "state" | "type" | "version") | 枚举("assignment_explanation" | "create_time" | "description" | "dest_index" | "failure_reason" | "id" | "model_memory_limit" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "progress" | "source_index" | "state" | "type" | "version")[]): 要显示的列名称列表。 -
s
(可选, 枚举("assignment_explanation" | "create_time" | "description" | "dest_index" | "failure_reason" | "id" | "model_memory_limit" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "progress" | "source_index" | "state" | "type" | "version") | 枚举("assignment_explanation" | "create_time" | "description" | "dest_index" | "failure_reason" | "id" | "model_memory_limit" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "progress" | "source_index" | "state" | "type" | "version")[]): 用于对响应进行排序的列名称或列别名列表。 -
time
(可选, 字符串 | -1 | 0): 用于显示时间值的单位。
-
ml_datafeeds
编辑获取数据馈送。返回有关数据馈送的配置和使用信息。此 API 最多返回 10,000 个数据馈送。如果启用了 Elasticsearch 安全功能,您必须拥有 monitor_ml
、monitor
、manage_ml
或 manage
集群权限才能使用此 API。
CAT API 仅供人在 Kibana 控制台或命令行中使用。它们不适用于应用程序。对于应用程序使用,请使用获取数据馈送统计信息 API。
client.cat.mlDatafeeds({ ... })
参数
编辑-
请求 (对象)
-
datafeed_id
(可选, 字符串):唯一标识数据馈送的数字字符串。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作
-
- 包含通配符表达式且没有匹配的数据馈送。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
如果为 true
,则当没有匹配项时,API 返回一个空数据馈送数组;当有部分匹配项时,返回结果的子集。如果为 false
,则当没有匹配项或只有部分匹配项时,API 返回 404 状态代码。h
(可选, 枚举("ae" | "bc" | "id" | "na" | "ne" | "ni" | "nn" | "sba" | "sc" | "seah" | "st" | "s") | 枚举("ae" | "bc" | "id" | "na" | "ne" | "ni" | "nn" | "sba" | "sc" | "seah" | "st" | "s")[]):要显示的列名称列表。 s
(可选, 枚举("ae" | "bc" | "id" | "na" | "ne" | "ni" | "nn" | "sba" | "sc" | "seah" | "st" | "s") | 枚举("ae" | "bc" | "id" | "na" | "ne" | "ni" | "nn" | "sba" | "sc" | "seah" | "st" | "s")[]):用于对响应进行排序的列名称或列别名列表。 * *time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")):用于显示时间值的单位。
ml_jobs
编辑获取异常检测作业。返回异常检测作业的配置和使用信息。此 API 最多返回 10,000 个作业。如果启用了 Elasticsearch 安全功能,您必须拥有 monitor_ml
、monitor
、manage_ml
或 manage
集群权限才能使用此 API。
CAT API 仅供人在 Kibana 控制台或命令行中使用。它们不适用于应用程序。对于应用程序使用,请使用获取异常检测作业统计信息 API。
client.cat.mlJobs({ ... })
参数
编辑-
请求 (对象)
-
job_id
(可选, 字符串):异常检测作业的标识符。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作
-
- 包含通配符表达式且没有匹配的作业。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
如果为 true
,则当没有匹配项时,API 返回一个空作业数组;当有部分匹配项时,返回结果的子集。如果为 false
,则当没有匹配项或只有部分匹配项时,API 返回 404 状态代码。bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")):用于显示字节值的单位。 h
(可选, 枚举("assignment_explanation" | "buckets.count" | "buckets.time.exp_avg" | "buckets.time.exp_avg_hour" | "buckets.time.max" | "buckets.time.min" | "buckets.time.total" | "data.buckets" | "data.earliest_record" | "data.empty_buckets" | "data.input_bytes" | "data.input_fields" | "data.input_records" | "data.invalid_dates" | "data.last" | "data.last_empty_bucket" | "data.last_sparse_bucket" | "data.latest_record" | "data.missing_fields" | "data.out_of_order_timestamps" | "data.processed_fields" | "data.processed_records" | "data.sparse_buckets" | "forecasts.memory.avg" | "forecasts.memory.max" | "forecasts.memory.min" | "forecasts.memory.total" | "forecasts.records.avg" | "forecasts.records.max" | "forecasts.records.min" | "forecasts.records.total" | "forecasts.time.avg" | "forecasts.time.max" | "forecasts.time.min" | "forecasts.time.total" | "forecasts.total" | "id" | "model.bucket_allocation_failures" | "model.by_fields" | "model.bytes" | "model.bytes_exceeded" | "model.categorization_status" | "model.categorized_doc_count" | "model.dead_category_count" | "model.failed_category_count" | "model.frequent_category_count" | "model.log_time" | "model.memory_limit" | "model.memory_status" | "model.over_fields" | "model.partition_fields" | "model.rare_category_count" | "model.timestamp" | "model.total_category_count" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "opened_time" | "state") | 枚举("assignment_explanation" | "buckets.count" | "buckets.time.exp_avg" | "buckets.time.exp_avg_hour" | "buckets.time.max" | "buckets.time.min" | "buckets.time.total" | "data.buckets" | "data.earliest_record" | "data.empty_buckets" | "data.input_bytes" | "data.input_fields" | "data.input_records" | "data.invalid_dates" | "data.last" | "data.last_empty_bucket" | "data.last_sparse_bucket" | "data.latest_record" | "data.missing_fields" | "data.out_of_order_timestamps" | "data.processed_fields" | "data.processed_records" | "data.sparse_buckets" | "forecasts.memory.avg" | "forecasts.memory.max" | "forecasts.memory.min" | "forecasts.memory.total" | "forecasts.records.avg" | "forecasts.records.max" | "forecasts.records.min" | "forecasts.records.total" | "forecasts.time.avg" | "forecasts.time.max" | "forecasts.time.min" | "forecasts.time.total" | "forecasts.total" | "id" | "model.bucket_allocation_failures" | "model.by_fields" | "model.bytes" | "model.bytes_exceeded" | "model.categorization_status" | "model.categorized_doc_count" | "model.dead_category_count" | "model.failed_category_count" | "model.frequent_category_count" | "model.log_time" | "model.memory_limit" | "model.memory_status" | "model.over_fields" | "model.partition_fields" | "model.rare_category_count" | "model.timestamp" | "model.total_category_count" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "opened_time" | "state")[]):要显示的列名称列表。 s
(可选, 枚举("assignment_explanation" | "buckets.count" | "buckets.time.exp_avg" | "buckets.time.exp_avg_hour" | "buckets.time.max" | "buckets.time.min" | "buckets.time.total" | "data.buckets" | "data.earliest_record" | "data.empty_buckets" | "data.input_bytes" | "data.input_fields" | "data.input_records" | "data.invalid_dates" | "data.last" | "data.last_empty_bucket" | "data.last_sparse_bucket" | "data.latest_record" | "data.missing_fields" | "data.out_of_order_timestamps" | "data.processed_fields" | "data.processed_records" | "data.sparse_buckets" | "forecasts.memory.avg" | "forecasts.memory.max" | "forecasts.memory.min" | "forecasts.memory.total" | "forecasts.records.avg" | "forecasts.records.max" | "forecasts.records.min" | "forecasts.records.total" | "forecasts.time.avg" | "forecasts.time.max" | "forecasts.time.min" | "forecasts.time.total" | "forecasts.total" | "id" | "model.bucket_allocation_failures" | "model.by_fields" | "model.bytes" | "model.bytes_exceeded" | "model.categorization_status" | "model.categorized_doc_count" | "model.dead_category_count" | "model.failed_category_count" | "model.frequent_category_count" | "model.log_time" | "model.memory_limit" | "model.memory_status" | "model.over_fields" | "model.partition_fields" | "model.rare_category_count" | "model.timestamp" | "model.total_category_count" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "opened_time" | "state") | 枚举("assignment_explanation" | "buckets.count" | "buckets.time.exp_avg" | "buckets.time.exp_avg_hour" | "buckets.time.max" | "buckets.time.min" | "buckets.time.total" | "data.buckets" | "data.earliest_record" | "data.empty_buckets" | "data.input_bytes" | "data.input_fields" | "data.input_records" | "data.invalid_dates" | "data.last" | "data.last_empty_bucket" | "data.last_sparse_bucket" | "data.latest_record" | "data.missing_fields" | "data.out_of_order_timestamps" | "data.processed_fields" | "data.processed_records" | "data.sparse_buckets" | "forecasts.memory.avg" | "forecasts.memory.max" | "forecasts.memory.min" | "forecasts.memory.total" | "forecasts.records.avg" | "forecasts.records.max" | "forecasts.records.min" | "forecasts.records.total" | "forecasts.time.avg" | "forecasts.time.max" | "forecasts.time.min" | "forecasts.time.total" | "forecasts.total" | "id" | "model.bucket_allocation_failures" | "model.by_fields" | "model.bytes" | "model.bytes_exceeded" | "model.categorization_status" | "model.categorized_doc_count" | "model.dead_category_count" | "model.failed_category_count" | "model.frequent_category_count" | "model.log_time" | "model.memory_limit" | "model.memory_status" | "model.over_fields" | "model.partition_fields" | "model.rare_category_count" | "model.timestamp" | "model.total_category_count" | "node.address" | "node.ephemeral_id" | "node.id" | "node.name" | "opened_time" | "state")[]):用于对响应进行排序的列名称或列别名列表。 time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")):用于显示时间值的单位。
ml_trained_models
编辑获取已训练的模型。返回有关推理已训练模型的配置和使用信息。
CAT API 仅供人在 Kibana 控制台或命令行中使用。它们不适用于应用程序。对于应用程序使用,请使用获取已训练模型统计信息 API。
client.cat.mlTrainedModels({ ... })
参数
编辑-
请求 (对象)
-
model_id
(可选, 字符串):已训练模型的唯一标识符。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作:包含通配符表达式且没有匹配的模型;包含_all
字符串或没有标识符且没有匹配项;包含通配符表达式且只有部分匹配项。如果为true
,则当没有匹配项时,API 返回一个空数组;当有部分匹配项时,返回结果的子集。如果为false
,则当没有匹配项或只有部分匹配项时,API 返回 404 状态代码。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。 -
h
(可选, 枚举("create_time" | "created_by" | "data_frame_analytics_id" | "description" | "heap_size" | "id" | "ingest.count" | "ingest.current" | "ingest.failed" | "ingest.pipelines" | "ingest.time" | "license" | "operations" | "version") | 枚举("create_time" | "created_by" | "data_frame_analytics_id" | "description" | "heap_size" | "id" | "ingest.count" | "ingest.current" | "ingest.failed" | "ingest.pipelines" | "ingest.time" | "license" | "operations" | "version")[]):要显示的列名称列表。 -
s
(可选, 枚举("create_time" | "created_by" | "data_frame_analytics_id" | "description" | "heap_size" | "id" | "ingest.count" | "ingest.current" | "ingest.failed" | "ingest.pipelines" | "ingest.time" | "license" | "operations" | "version") | 枚举("create_time" | "created_by" | "data_frame_analytics_id" | "description" | "heap_size" | "id" | "ingest.count" | "ingest.current" | "ingest.failed" | "ingest.pipelines" | "ingest.time" | "license" | "operations" | "version")[]):用于对响应进行排序的列名称或别名列表。 -
from
(可选, 数字):跳过指定数量的转换。 -
size
(可选, 数字):要显示的最大转换数。
-
nodeattrs
编辑返回有关自定义节点属性的信息。重要提示:cat API 仅供人在命令行或 Kibana 控制台中使用。它们不适用于应用程序。对于应用程序使用,请使用节点信息 API。
client.cat.nodeattrs()
nodes
编辑返回集群中节点的相关信息。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用节点信息 API。
client.cat.nodes({ ... })
参数
编辑-
请求 (对象)
-
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。 -
full_id
(可选,布尔值 | 字符串):如果为true
,则返回完整的节点 ID。如果为false
,则返回缩短的节点 ID。 -
include_unloaded_segments
(可选, 布尔值): 如果为 true,则响应包括来自未加载到内存中的段的信息。
-
pending_tasks
编辑返回尚未执行的集群级更改。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用待处理的集群任务 API。
client.cat.pendingTasks()
plugins
编辑返回集群中每个节点上运行的插件列表。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用节点信息 API。
client.cat.plugins()
recovery
编辑返回有关正在进行和已完成的分片恢复的信息。分片恢复是指初始化分片副本的过程,例如从快照还原主分片或从主分片同步副本分片。当分片恢复完成时,恢复的分片可用于搜索和索引。对于数据流,API 返回有关流的支持索引的信息。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用索引恢复 API。
client.cat.recovery({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串数组):用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
active_only
(可选,布尔值):如果为true
,则响应仅包括正在进行的分片恢复。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。 -
detailed
(可选,布尔值):如果为true
,则响应包括有关分片恢复的详细信息。
-
repositories
编辑返回集群的快照存储库。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用获取快照存储库 API。
client.cat.repositories()
segments
编辑返回有关索引分片中 Lucene 段的底层信息。对于数据流,API 返回有关支持索引的信息。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用索引段 API。
client.cat.segments({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串数组):用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。
-
shards
编辑返回有关集群中分片的信息。对于数据流,API 返回有关支持索引的信息。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。
client.cat.shards({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串数组):用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
bytes
(可选, 枚举("b" | "kb" | "mb" | "gb" | "tb" | "pb")): 用于显示字节值的单位。
-
snapshots
编辑返回有关存储在一个或多个存储库中的快照的信息。快照是索引或正在运行的 Elasticsearch 集群的备份。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用获取快照 API。
client.cat.snapshots({ ... })
参数
编辑-
请求 (对象)
-
repository
(可选,字符串 | 字符串数组):用于限制请求的快照存储库列表。接受通配符表达式。_all
返回所有存储库。如果在请求期间任何存储库失败,Elasticsearch 将返回错误。 -
ignore_unavailable
(可选,布尔值):如果为true
,则响应不包括来自不可用快照的信息。
-
tasks
编辑返回有关当前在集群中执行的任务的信息。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用任务管理 API。
client.cat.tasks({ ... })
参数
编辑-
请求 (对象)
-
actions
(可选,字符串数组):用于限制响应的任务操作名称。 -
detailed
(可选,布尔值):如果为true
,则响应包括有关分片恢复的详细信息。 -
node_id
(可选,字符串数组):用于限制响应的唯一节点标识符。 -
parent_task_id
(可选,字符串):用于限制响应的父任务标识符。
-
templates
编辑返回有关集群中索引模板的信息。可以使用索引模板在创建时将索引设置和字段映射应用于新索引。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用获取索引模板 API。
client.cat.templates({ ... })
参数
编辑-
请求 (对象)
-
name
(可选,字符串):要返回的模板的名称。接受通配符表达式。如果省略,则返回所有模板。
-
thread_pool
编辑返回集群中每个节点的线程池统计信息。返回的信息包括所有内置线程池和自定义线程池。重要提示:cat API 仅供人类通过命令行或 Kibana 控制台使用。它们不适用于应用程序使用。对于应用程序使用,请使用节点信息 API。
client.cat.threadPool({ ... })
参数
编辑-
请求 (对象)
-
thread_pool_patterns
(可选,字符串 | 字符串数组):用于限制请求的线程池名称列表。接受通配符表达式。 -
time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 用于显示时间值的单位。
-
transforms
编辑获取转换。返回有关转换的配置和使用信息。
CAT API 仅供人类通过 Kibana 控制台或命令行使用。它们不适用于应用程序使用。对于应用程序使用,请使用获取转换统计信息 API。
client.cat.transforms({ ... })
参数
编辑-
请求 (对象)
-
transform_id
(可选,字符串):转换标识符或通配符表达式。如果未指定这些选项之一,则 API 将返回所有转换的信息。 -
allow_no_match
(可选,布尔值):指定在以下情况下要执行的操作:请求包含通配符表达式,但没有匹配的转换;包含_all
字符串或没有标识符,但没有匹配项;包含通配符表达式,但只有部分匹配项。如果为true
,则在没有匹配项时返回空的转换数组,在有部分匹配项时返回结果的子集。如果为false
,则在没有匹配项或只有部分匹配项时,请求将返回 404 状态代码。 -
from
(可选, 数字):跳过指定数量的转换。 -
h
(可选,枚举("changes_last_detection_time" | "checkpoint" | "checkpoint_duration_time_exp_avg" | "checkpoint_progress" | "create_time" | "delete_time" | "description" | "dest_index" | "documents_deleted" | "documents_indexed" | "docs_per_second" | "documents_processed" | "frequency" | "id" | "index_failure" | "index_time" | "index_total" | "indexed_documents_exp_avg" | "last_search_time" | "max_page_search_size" | "pages_processed" | "pipeline" | "processed_documents_exp_avg" | "processing_time" | "reason" | "search_failure" | "search_time" | "search_total" | "source_index" | "state" | "transform_type" | "trigger_count" | "version") | 枚举("changes_last_detection_time" | "checkpoint" | "checkpoint_duration_time_exp_avg" | "checkpoint_progress" | "create_time" | "delete_time" | "description" | "dest_index" | "documents_deleted" | "documents_indexed" | "docs_per_second" | "documents_processed" | "frequency" | "id" | "index_failure" | "index_time" | "index_total" | "indexed_documents_exp_avg" | "last_search_time" | "max_page_search_size" | "pages_processed" | "pipeline" | "processed_documents_exp_avg" | "processing_time" | "reason" | "search_failure" | "search_time" | "search_total" | "source_index" | "state" | "transform_type" | "trigger_count" | "version")[]):要显示的列名称列表。 -
s
(可选,枚举("changes_last_detection_time" | "checkpoint" | "checkpoint_duration_time_exp_avg" | "checkpoint_progress" | "create_time" | "delete_time" | "description" | "dest_index" | "documents_deleted" | "documents_indexed" | "docs_per_second" | "documents_processed" | "frequency" | "id" | "index_failure" | "index_time" | "index_total" | "indexed_documents_exp_avg" | "last_search_time" | "max_page_search_size" | "pages_processed" | "pipeline" | "processed_documents_exp_avg" | "processing_time" | "reason" | "search_failure" | "search_time" | "search_total" | "source_index" | "state" | "transform_type" | "trigger_count" | "version") | 枚举("changes_last_detection_time" | "checkpoint" | "checkpoint_duration_time_exp_avg" | "checkpoint_progress" | "create_time" | "delete_time" | "description" | "dest_index" | "documents_deleted" | "documents_indexed" | "docs_per_second" | "documents_processed" | "frequency" | "id" | "index_failure" | "index_time" | "index_total" | "indexed_documents_exp_avg" | "last_search_time" | "max_page_search_size" | "pages_processed" | "pipeline" | "processed_documents_exp_avg" | "processing_time" | "reason" | "search_failure" | "search_time" | "search_total" | "source_index" | "state" | "transform_type" | "trigger_count" | "version")[]):用于对响应进行排序的列名称或列别名列表。 -
time
(可选, 枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 用于显示时间值的单位。 -
size
(可选,数字):要获取的最大转换数。
-
ccr
编辑delete_auto_follow_pattern
编辑删除自动关注模式。
client.ccr.deleteAutoFollowPattern({ name })
参数
编辑-
请求 (对象)
-
name
(字符串):自动关注模式的名称。
-
follow
编辑创建一个新的跟随者索引,配置为跟随引用的领导者索引。
client.ccr.follow({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):跟随者索引的名称 -
leader_index
(可选,字符串) -
max_outstanding_read_requests
(可选,数字) -
max_outstanding_write_requests
(可选,数字) -
max_read_request_operation_count
(可选,数字) -
max_read_request_size
(可选,字符串) -
max_retry_delay
(可选,字符串 | -1 | 0) -
max_write_buffer_count
(可选,数字) -
max_write_buffer_size
(可选,字符串) -
max_write_request_operation_count
(可选,数字) -
max_write_request_size
(可选,字符串) -
read_poll_timeout
(可选,字符串 | -1 | 0) -
remote_cluster
(可选,字符串) -
wait_for_active_shards
(可选,数字 | 枚举("all" | "index-setting")):设置返回之前必须处于活动状态的分片副本数。默认为 0。对于所有分片副本,设置为all
,否则设置为小于或等于分片副本总数的任何非负值(副本数 + 1)
-
follow_info
编辑检索有关所有跟随者索引的信息,包括每个跟随者索引的参数和状态
client.ccr.followInfo({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组):索引模式列表;使用_all
在所有索引上执行操作
-
follow_stats
编辑检索跟随者统计信息。返回有关指定索引的每个分片关联的以下任务的分片级统计信息。
client.ccr.followStats({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组):索引模式列表;使用_all
在所有索引上执行操作
-
forget_follower
编辑从领导者中删除跟随者保留租约。
client.ccr.forgetFollower({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):应从中删除指定跟随者保留租约的领导者索引的名称 -
follower_cluster
(可选,字符串) -
follower_index
(可选,字符串) -
follower_index_uuid
(可选,字符串) -
leader_remote_cluster
(可选,字符串)
-
get_auto_follow_pattern
编辑获取配置的自动跟随模式。返回指定的自动跟随模式集合。
client.ccr.getAutoFollowPattern({ ... })
参数
编辑-
请求 (对象)
-
name
(可选,字符串):指定要检索的自动跟随模式集合。如果未指定名称,API 将返回所有集合的信息。
-
暂停自动跟随模式
编辑暂停自动跟随模式
client.ccr.pauseAutoFollowPattern({ name })
参数
编辑-
请求 (对象)
-
name
(字符串):应该暂停发现要跟随的新索引的自动跟随模式的名称。
-
暂停跟随
编辑暂停跟随者索引。跟随者索引将不会从领导者索引获取任何其他操作。
client.ccr.pauseFollow({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):应该暂停跟随其领导者索引的跟随者索引的名称。
-
放置自动跟随模式
编辑针对指定的远程集群创建新的自动跟随模式命名集合。远程集群上新创建的与任何指定模式匹配的索引将自动配置为跟随者索引。
client.ccr.putAutoFollowPattern({ name, remote_cluster })
参数
编辑-
请求 (对象)
-
name
(字符串):自动跟随模式集合的名称。 -
remote_cluster
(字符串):包含要匹配的领导者索引的远程集群。 -
follow_index_pattern
(可选,字符串):跟随者索引的名称。模板 {{leader_index}} 可用于从领导者索引的名称派生跟随者索引的名称。当跟随数据流时,请使用 {{leader_index}};CCR 不支持更改跟随者数据流的后备索引的名称。 -
leader_index_patterns
(可选,字符串[]):一个简单的索引模式数组,用于匹配 remote_cluster 字段指定的远程集群中的索引。 -
leader_index_exclusion_patterns
(可选,字符串[]):一个简单的索引模式数组,可用于排除自动跟随的索引。远程集群中名称与一个或多个 leader_index_patterns 和一个或多个 leader_index_exclusion_patterns 匹配的索引将不会被跟随。 -
max_outstanding_read_requests
(可选,数字):来自远程集群的最大未完成读取请求数。 -
settings
(可选,Record<string, 用户定义的值>):要从领导者索引覆盖的设置。请注意,某些设置无法被覆盖(例如,index.number_of_shards)。 -
max_outstanding_write_requests
(可选,数字):来自远程集群的最大未完成读取请求数。 -
read_poll_timeout
(可选,字符串 | -1 | 0):当跟随者索引与领导者索引同步时,在远程集群上等待新操作的最大时间。当超时时间已过时,操作轮询将返回到跟随者,以便它可以更新一些统计信息。然后,跟随者将立即尝试再次从领导者读取。 -
max_read_request_operation_count
(可选,数字):每次从远程集群读取时要拉取的最大操作数。 -
max_read_request_size
(可选,数字 | 字符串):每次从远程集群拉取的一批操作的最大字节大小。 -
max_retry_delay
(可选,字符串 | -1 | 0):在重试异常失败的操作之前等待的最大时间。重试时会采用指数退避策略。 -
max_write_buffer_count
(可选,数字):可以排队等待写入的最大操作数。当达到此限制时,将推迟从远程集群的读取,直到排队的操作数低于限制。 -
max_write_buffer_size
(可选,数字 | 字符串):可以排队等待写入的操作的最大总字节数。当达到此限制时,将推迟从远程集群的读取,直到排队的操作的总字节数低于限制。 -
max_write_request_operation_count
(可选,数字):在跟随者上执行的每个批量写入请求的最大操作数。 -
max_write_request_size
(可选,数字 | 字符串):在跟随者上执行的每个批量写入请求的最大总字节数。
-
恢复自动跟随模式
编辑恢复已暂停的自动跟随模式
client.ccr.resumeAutoFollowPattern({ name })
参数
编辑-
请求 (对象)
-
name
(字符串):要恢复发现要跟随的新索引的自动跟随模式的名称。
-
恢复跟随
编辑恢复已暂停的跟随者索引
client.ccr.resumeFollow({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):要恢复跟随的跟随者索引的名称。 -
max_outstanding_read_requests
(可选,数字) -
max_outstanding_write_requests
(可选,数字) -
max_read_request_operation_count
(可选,数字) -
max_read_request_size
(可选,字符串) -
max_retry_delay
(可选,字符串 | -1 | 0) -
max_write_buffer_count
(可选,数字) -
max_write_buffer_size
(可选,字符串) -
max_write_request_operation_count
(可选,数字) -
max_write_request_size
(可选,字符串) -
read_poll_timeout
(可选,字符串 | -1 | 0)
-
统计
编辑获取与跨集群复制相关的所有统计信息。
client.ccr.stats()
取消跟随
编辑停止与跟随者索引关联的跟随任务,并删除与跨集群复制关联的索引元数据和设置。
client.ccr.unfollow({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):应该转换为常规索引的跟随者索引的名称。
-
集群
编辑分配说明
编辑提供集群中分片分配的说明。
client.cluster.allocationExplain({ ... })
参数
编辑-
请求 (对象)
-
current_node
(可选,字符串):指定节点 ID 或节点的名称,以仅解释当前位于指定节点上的分片。 -
index
(可选,字符串):指定您想要解释的索引的名称。 -
primary
(可选,布尔值):如果为 true,则返回给定分片 ID 的主分片的解释。 -
shard
(可选,数字):指定您想要解释的分片的 ID。 -
include_disk_info
(可选,布尔值):如果为 true,则返回有关磁盘使用情况和分片大小的信息。 -
include_yes_decisions
(可选,布尔值):如果为 true,则在解释中返回 YES 决定。
-
删除组件模板
编辑删除组件模板。删除组件模板。组件模板是构建索引模板的构建块,用于指定索引映射、设置和别名。
client.cluster.deleteComponentTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]):用于限制请求的组件模板名称的列表或通配符表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
删除投票配置排除项
编辑清除集群投票配置排除项。
client.cluster.deleteVotingConfigExclusions({ ... })
参数
编辑-
请求 (对象)
-
wait_for_removal
(可选,布尔值):指定是否在清除投票配置排除列表之前等待所有排除的节点从集群中移除。默认为 true,这意味着所有排除的节点必须在集群中移除后,此 API 才会执行任何操作。如果设置为 false,则即使某些排除的节点仍在集群中,也会清除投票配置排除列表。
-
检查组件模板是否存在
编辑检查组件模板。返回有关特定组件模板是否存在的信息。
client.cluster.existsComponentTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]):用于限制请求的组件模板名称的列表。支持通配符 (*) 表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
local
(可选,布尔值):如果为 true,则请求仅从本地节点检索信息。默认为 false,这意味着从主节点检索信息。
-
获取组件模板
编辑获取组件模板。检索有关组件模板的信息。
client.cluster.getComponentTemplate({ ... })
参数
编辑-
请求 (对象)
-
name
(可选,字符串):用于限制请求的组件模板名称的列表。支持通配符 (*
) 表达式。 -
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
include_defaults
(可选,布尔值):返回组件模板的所有默认配置(默认值:false) -
local
(可选,布尔值):如果true
,则请求仅从本地节点检索信息。如果false
,则从主节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
获取设置
编辑返回集群范围的设置。默认情况下,它仅返回已明确定义的设置。
client.cluster.getSettings({ ... })
参数
编辑-
请求 (对象)
-
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
include_defaults
(可选,布尔值):如果true
,则从本地节点返回默认集群设置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
运行状况
编辑集群运行状况 API 返回有关集群运行状况的简单状态。您还可以使用此 API 仅获取指定数据流和索引的运行状况状态。对于数据流,此 API 检索流的后备索引的运行状况状态。集群运行状况状态为:绿色、黄色或红色。在分片级别,红色状态表示特定分片未在集群中分配,黄色表示已分配主分片但未分配副本,绿色表示已分配所有分片。索引级别状态由最差分片状态控制。集群状态由最差索引状态控制。
client.cluster.health({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, string | string[]): 用于限制请求的数据流、索引和索引别名列表。支持通配符表达式 (*
)。要定位集群中的所有数据流和索引,请省略此参数或使用 _all 或*
。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
level
(可选, Enum("cluster" | "indices" | "shards")): 可以是 cluster、indices 或 shards 中的一个。控制返回的健康信息的详细程度。 -
local
(可选,布尔值):如果为 true,则请求仅从本地节点检索信息。默认为 false,这意味着从主节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, number | Enum("all" | "index-setting")): 一个数字,控制等待多少个活动分片,all 表示等待集群中所有分片都处于活动状态,0 表示不等待。 -
wait_for_events
(可选, Enum("immediate" | "urgent" | "high" | "normal" | "low" | "languid")): 可以是 immediate、urgent、high、normal、low、languid 中的一个。等待直到所有当前排队的具有给定优先级的事件被处理。 -
wait_for_nodes
(可选, string | number): 请求会等待直到指定数量 N 的节点可用。它也接受 >=N、<=N、>N 和wait_for_no_initializing_shards
(可选, boolean): 一个布尔值,控制是否等待(直到提供的超时时间)集群没有正在初始化的分片。默认为 false,这意味着它不会等待正在初始化的分片。wait_for_no_relocating_shards
(可选, boolean): 一个布尔值,控制是否等待(直到提供的超时时间)集群没有正在重定位的分片。默认为 false,这意味着它不会等待正在重定位的分片。wait_for_status
(可选, Enum("green" | "yellow" | "red")): green、yellow 或 red 中的一个。将等待(直到提供的超时时间)直到集群的状态变为提供的状态或更好,即 green > yellow > red。默认情况下,不会等待任何状态。
-
info
编辑获取集群信息。返回有关集群的基本信息。
client.cluster.info({ target })
参数
编辑-
请求 (对象)
-
target
(Enum("_all" | "http" | "ingest" | "thread_pool" | "script") | Enum("_all" | "http" | "ingest" | "thread_pool" | "script")[]): 将返回的信息限制为特定目标。支持列表,例如 http,ingest。
-
pending_tasks
编辑返回尚未执行的集群级更改(例如创建索引、更新映射、分配或失败分片)。注意:此 API 返回集群状态的任何待处理更新的列表。这些与任务管理 API 报告的任务不同,后者包括周期性任务和用户发起的任务,例如节点统计、搜索查询或创建索引请求。但是,如果用户发起的任务(例如创建索引命令)导致集群状态更新,则此任务的活动可能会由任务 API 和待处理集群任务 API 报告。
client.cluster.pendingTasks({ ... })
参数
编辑-
请求 (对象)
-
local
(可选,布尔值):如果true
,则请求仅从本地节点检索信息。如果false
,则从主节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
post_voting_config_exclusions
编辑通过节点 ID 或节点名称更新集群投票配置排除项。
client.cluster.postVotingConfigExclusions({ ... })
参数
编辑-
请求 (对象)
-
node_names
(可选, string | string[]): 要从投票配置中排除的节点名称列表。如果指定,则不能同时指定 node_ids。 -
node_ids
(可选, string | string[]): 要从投票配置中排除的节点的持久 ID 列表。如果指定,则不能同时指定 node_names。 -
timeout
(可选, string | -1 | 0): 添加投票配置排除项时,API 会等待指定的节点从投票配置中排除后才返回。如果超时在满足适当条件之前过期,则请求失败并返回错误。
-
put_component_template
编辑创建或更新组件模板。创建或更新组件模板。组件模板是用于构建索引模板的构建块,用于指定索引映射、设置和别名。
一个索引模板可以由多个组件模板组成。要使用组件模板,请在索引模板的 composed_of
列表中指定它。组件模板仅作为匹配索引模板的一部分应用于新的数据流和索引。
直接在索引模板或创建索引请求中指定的设置和映射将覆盖组件模板中指定的任何设置或映射。
组件模板仅在索引创建期间使用。对于数据流,这包括数据流的创建和流的后备索引的创建。对组件模板的更改不会影响现有索引,包括流的后备索引。
您可以在组件模板中使用 C 样式 /* */
块注释。您可以在请求正文中的任何位置包含注释,除了在开头的花括号之前。
client.cluster.putComponentTemplate({ name, template })
参数
编辑-
请求 (对象)
-
name
(string): 要创建的组件模板的名称。Elasticsearch 包括以下内置组件模板:logs-mappings
;logs-settings
;metrics-mappings
;metrics-settings
;synthetics-mapping
;synthetics-settings
。Elastic Agent 使用这些模板为其数据流配置后备索引。如果您使用 Elastic Agent 并且想要覆盖其中一个模板,请将替换模板的version
设置为高于当前版本的版本。如果您不使用 Elastic Agent 并且想要禁用所有内置组件和索引模板,请使用集群更新设置 API 将stack.templates.enabled
设置为false
。 -
template
({ aliases, mappings, settings, defaults, data_stream, lifecycle }): 要应用的模板,其中包括映射、设置或别名配置。 -
version
(可选, number): 用于在外部管理组件模板的版本号。此数字不会由 Elasticsearch 自动生成或递增。要取消设置版本,请在不指定版本的情况下替换模板。 -
_meta
(可选, Record<string, 用户定义的值>): 关于组件模板的可选用户元数据。可以包含任何内容。此映射不会由 Elasticsearch 自动生成。此信息存储在集群状态中,因此最好保持简短。要取消设置_meta
,请在不指定此信息的情况下替换模板。 -
deprecated
(可选, boolean): 将此索引模板标记为已弃用。当创建或更新使用已弃用组件的非已弃用索引模板时,Elasticsearch 将发出弃用警告。 -
create
(可选, boolean): 如果true
,则此请求不能替换或更新现有组件模板。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_settings
编辑更新集群设置。
client.cluster.putSettings({ ... })
参数
编辑-
请求 (对象)
-
persistent
(可选, Record<string, 用户定义的值>) -
transient
(可选, Record<string, 用户定义的值>) -
flat_settings
(可选, boolean): 以扁平格式返回设置(默认值:false) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
remote_info
编辑集群远程信息 API 允许您检索所有配置的远程集群信息。它返回按配置的远程集群别名键控的连接和端点信息。
client.cluster.remoteInfo()
reroute
编辑允许手动更改集群中单个分片的分配。
client.cluster.reroute({ ... })
参数
编辑-
请求 (对象)
-
commands
(可选, { cancel, move, allocate_replica, allocate_stale_primary, allocate_empty_primary }[]): 定义要执行的命令。 -
dry_run
(可选, boolean): 如果为 true,则请求仅模拟操作并返回结果状态。 -
explain
(可选, boolean): 如果为 true,则响应包含有关为什么可以或不能执行命令的解释。 -
metric
(可选, string | string[]): 将返回的信息限制为指定的指标。 -
retry_failed
(可选, boolean): 如果为 true,则重试由于后续分配失败次数过多而被阻止的分片的分配。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
state
编辑返回有关集群状态的全面信息。
client.cluster.state({ ... })
参数
编辑-
请求 (对象)
-
metric
(可选, string | string[]): 将返回的信息限制为指定的指标 -
index
(可选, string | string[]): 索引名称列表;使用_all
或空字符串对所有索引执行操作 -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
flat_settings
(可选, boolean): 以扁平格式返回设置(默认值:false) -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略 -
local
(可选, boolean): 返回本地信息,不要从主节点检索状态(默认值:false) -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时 -
wait_for_metadata_version
(可选, number): 等待元数据版本等于或大于指定的元数据版本 -
wait_for_timeout
(可选, string | -1 | 0): 等待 wait_for_metadata_version 超时的最大时间
-
stats
编辑返回集群统计信息。它返回基本索引指标(分片数量、存储大小、内存使用情况)和有关构成集群的当前节点的信息(数量、角色、操作系统、JVM 版本、内存使用情况、CPU 和安装的插件)。
client.cluster.stats({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选,字符串 | 字符串数组):用于限制返回信息的节点过滤器列表。默认为集群中的所有节点。 -
include_remotes
(可选,布尔值):在响应中包含远程集群数据 -
timeout
(可选,字符串 | -1 | 0):等待每个节点响应的时间。如果节点在其超时时间到期之前没有响应,则响应中不包括其统计信息。但是,超时的节点会包含在响应的_nodes.failed
属性中。默认为无超时。
-
connector
编辑check_in
编辑签入连接器。
更新连接器中的 last_seen
字段,并将其设置为当前时间戳。
client.connector.checkIn({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要签入的连接器的唯一标识符
-
delete
编辑删除连接器。
删除连接器和关联的同步作业。这是一个不可恢复的破坏性操作。注意:此操作不会删除与连接器关联的任何 API 密钥、摄取管道或数据索引。这些需要手动删除。
client.connector.delete({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要删除的连接器的唯一标识符 -
delete_sync_jobs
(可选,布尔值):一个标志,指示是否也应删除关联的同步作业。默认为 false。
-
get
编辑获取连接器。
获取有关连接器的详细信息。
client.connector.get({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):连接器的唯一标识符
-
list
编辑获取所有连接器。
获取有关所有连接器的信息。
client.connector.list({ ... })
参数
编辑-
请求 (对象)
-
from
(可选, 数字): 起始偏移量(默认为 0) -
size
(可选,数字):指定要获取的最大结果数 -
index_name
(可选,字符串 | 字符串数组):用于获取连接器文档的连接器索引名称列表 -
connector_name
(可选,字符串 | 字符串数组):用于获取连接器文档的连接器名称列表 -
service_type
(可选,字符串 | 字符串数组):用于获取连接器文档的连接器服务类型列表 -
query
(可选,字符串):一个通配符查询字符串,用于过滤名称、描述或索引名称匹配的连接器
-
post
编辑创建连接器。
连接器是 Elasticsearch 集成,可从第三方数据源引入内容,这些内容可以部署在 Elastic Cloud 上或托管在您自己的基础设施上。Elastic 管理的连接器(本机连接器)是 Elastic Cloud 上的托管服务。自管理连接器(连接器客户端)是在您的基础设施上自管理的。
client.connector.post({ ... })
参数
编辑-
请求 (对象)
-
description
(可选,字符串) -
index_name
(可选,字符串) -
is_native
(可选,布尔值) -
language
(可选,字符串) -
name
(可选,字符串) -
service_type
(可选,字符串)
-
put
编辑创建或更新连接器。
client.connector.put({ ... })
参数
编辑-
请求 (对象)
-
connector_id
(可选,字符串):要创建或更新的连接器的唯一标识符。如果未提供 ID,则会自动生成。 -
description
(可选,字符串) -
index_name
(可选,字符串) -
is_native
(可选,布尔值) -
language
(可选,字符串) -
name
(可选,字符串) -
service_type
(可选,字符串)
-
sync_job_cancel
编辑取消连接器同步作业。
取消连接器同步作业,这将状态设置为正在取消,并将 cancellation_requested_at
更新为当前时间。然后,连接器服务负责将连接器同步作业的状态设置为已取消。
client.connector.syncJobCancel({ connector_sync_job_id })
参数
编辑-
请求 (对象)
-
connector_sync_job_id
(字符串):连接器同步作业的唯一标识符
-
sync_job_check_in
编辑签入连接器同步作业(刷新 *last_seen*)。
client.connector.syncJobCheckIn()
sync_job_claim
编辑声明连接器同步作业。
client.connector.syncJobClaim()
sync_job_delete
编辑删除连接器同步作业。
删除连接器同步作业及其关联的数据。这是一个不可恢复的破坏性操作。
client.connector.syncJobDelete({ connector_sync_job_id })
参数
编辑-
请求 (对象)
-
connector_sync_job_id
(字符串):要删除的连接器同步作业的唯一标识符
-
sync_job_error
编辑为连接器同步作业设置错误。
client.connector.syncJobError()
sync_job_get
编辑获取连接器同步作业。
client.connector.syncJobGet({ connector_sync_job_id })
参数
编辑-
请求 (对象)
-
connector_sync_job_id
(字符串):连接器同步作业的唯一标识符
-
sync_job_list
编辑获取所有连接器同步作业。
获取有关所有存储的连接器同步作业的信息,这些作业按其创建日期升序列出。
client.connector.syncJobList({ ... })
参数
编辑-
请求 (对象)
-
from
(可选, 数字): 起始偏移量(默认为 0) -
size
(可选,数字):指定要获取的最大结果数 -
status
(可选,枚举("canceling" | "canceled" | "completed" | "error" | "in_progress" | "pending" | "suspended")):用于获取连接器同步作业的同步作业状态 -
connector_id
(可选,字符串):用于获取连接器同步作业的连接器 ID -
job_type
(可选,枚举("full" | "incremental" | "access_control") | 枚举("full" | "incremental" | "access_control")[]):用于获取同步作业的作业类型列表
-
sync_job_post
编辑创建连接器同步作业。
在内部索引中创建连接器同步作业文档,并使用默认值初始化其计数器和时间戳。
client.connector.syncJobPost({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):关联的连接器的 ID -
job_type
(可选,枚举("full" | "incremental" | "access_control")) -
trigger_method
(可选,枚举("on_demand" | "scheduled"))
-
sync_job_update_stats
编辑更新连接器同步作业文档中的统计信息字段。
client.connector.syncJobUpdateStats()
update_active_filtering
编辑激活连接器草稿过滤器。
激活连接器的有效草稿过滤。
client.connector.updateActiveFiltering({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符
-
update_api_key_id
编辑更新连接器 API 密钥 ID。
更新连接器的 api_key_id
和 api_key_secret_id
字段。您可以指定用于授权的 API 密钥的 ID 和存储 API 密钥的连接器密钥的 ID。连接器密钥 ID 仅适用于 Elastic 管理的(本机)连接器。自管理连接器(连接器客户端)不使用此字段。
client.connector.updateApiKeyId({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
api_key_id
(可选,字符串) -
api_key_secret_id
(可选,字符串)
-
update_configuration
编辑更新连接器配置。
更新连接器文档中的配置字段。
client.connector.updateConfiguration({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
configuration
(可选,Record<string, { category, default_value, depends_on, display, label, options, order, placeholder, required, sensitive, tooltip, type, ui_restrictions, validations, value }>) -
values
(可选,Record<string, User-defined value>)
-
update_error
编辑更新连接器错误字段。
设置连接器的错误字段。如果请求正文中提供的错误为非空,则连接器的状态将更新为错误。否则,如果错误重置为 null,则连接器状态将更新为已连接。
client.connector.updateError({ connector_id, error })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
error
(T | null)
-
update_features
编辑更新连接器文档中的连接器功能。
client.connector.updateFeatures()
update_filtering
编辑更新连接器过滤。
更新连接器的草稿过滤配置,并将草稿验证状态标记为已编辑。草稿过滤在运行的 Elastic 连接器服务验证后激活。过滤属性用于配置连接器的同步规则(基本和高级)。
client.connector.updateFiltering({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
filtering
(可选,{ active, domain, draft }[]) -
rules
(可选,{ created_at, field, id, order, policy, rule, updated_at, value }[]) -
advanced_snippet
(可选,{ created_at, updated_at, value })
-
update_filtering_validation
编辑更新连接器草稿过滤验证。
更新连接器的草稿过滤验证信息。
client.connector.updateFilteringValidation({ connector_id, validation })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
validation
({ errors, state })
-
update_index_name
编辑更新连接器索引名称。
更新连接器的 index_name
字段,指定存储连接器摄取的数据的索引。
client.connector.updateIndexName({ connector_id, index_name })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
index_name
(T | null)
-
update_name
编辑更新连接器名称和描述。
client.connector.updateName({ connector_id })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
name
(可选,字符串) -
description
(可选,字符串)
-
update_native
编辑更新连接器 is_native 标志。
client.connector.updateNative({ connector_id, is_native })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
is_native
(布尔值)
-
update_pipeline
编辑更新连接器管道。
当您创建新连接器时,摄取管道的配置会使用默认设置填充。
client.connector.updatePipeline({ connector_id, pipeline })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
pipeline
({ extract_binary_content, name, reduce_whitespace, run_ml_inference })
-
update_scheduling
编辑更新连接器计划。
client.connector.updateScheduling({ connector_id, scheduling })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
scheduling
({ access_control, full, incremental })
-
update_service_type
编辑更新连接器服务类型。
client.connector.updateServiceType({ connector_id, service_type })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
service_type
(字符串)
-
update_status
编辑更新连接器状态。
client.connector.updateStatus({ connector_id, status })
参数
编辑-
请求 (对象)
-
connector_id
(字符串):要更新的连接器的唯一标识符 -
status
(枚举("created" | "needs_configuration" | "configured" | "connected" | "error"))
-
dangling_indices
编辑delete_dangling_index
编辑删除悬挂索引。
如果 Elasticsearch 遇到当前集群状态中不存在的索引数据,则这些索引将被视为悬挂索引。例如,如果您在 Elasticsearch 节点脱机时删除的索引多于 cluster.indices.tombstones.size
个索引,则可能会发生这种情况。
client.danglingIndices.deleteDanglingIndex({ index_uuid, accept_data_loss })
参数
编辑-
请求 (对象)
-
index_uuid
(字符串):要删除的索引的 UUID。使用 get dangling indices API 来查找 UUID。 -
accept_data_loss
(布尔值):此参数必须设置为 true,以确认将不再可能从悬挂索引中恢复数据。 -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
import_dangling_index
编辑导入悬挂索引。
如果 Elasticsearch 遇到当前集群状态中不存在的索引数据,则这些索引将被视为悬挂索引。例如,如果您在 Elasticsearch 节点脱机时删除的索引多于 cluster.indices.tombstones.size
个索引,则可能会发生这种情况。
client.danglingIndices.importDanglingIndex({ index_uuid, accept_data_loss })
参数
编辑-
请求 (对象)
-
index_uuid
(字符串):要导入的索引的 UUID。使用 get dangling indices API 来查找 UUID。 -
accept_data_loss
(布尔值):必须将此参数设置为 true 才能导入悬挂索引。因为 Elasticsearch 无法知道悬挂索引数据来自何处,也无法确定哪些分片副本是新的,哪些分片副本是旧的,所以它无法保证导入的数据表示索引上次在集群中时的最新状态。 -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
list_dangling_indices
编辑获取悬挂索引。
如果 Elasticsearch 遇到当前集群状态中不存在的索引数据,则这些索引将被视为悬挂索引。例如,如果您在 Elasticsearch 节点脱机时删除的索引多于 cluster.indices.tombstones.size
个索引,则可能会发生这种情况。
使用此 API 列出悬挂索引,然后您可以导入或删除它们。
client.danglingIndices.listDanglingIndices()
enrich
编辑delete_policy
编辑删除富集策略。删除现有的富集策略及其富集索引。
client.enrich.deletePolicy({ name })
参数
编辑-
请求 (对象)
-
name
(string): 要删除的富集策略。
-
execute_policy
编辑运行富集策略。为现有富集策略创建富集索引。
client.enrich.executePolicy({ name })
参数
编辑-
请求 (对象)
-
name
(string): 要执行的富集策略。 -
wait_for_completion
(可选, boolean): 如果为true
,则该请求会阻止其他富集策略执行请求,直到完成。
-
get_policy
编辑获取富集策略。返回有关富集策略的信息。
client.enrich.getPolicy({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, string | string[]): 用于限制请求的富集策略名称列表。要返回所有富集策略的信息,请省略此参数。
-
put_policy
编辑创建富集策略。创建一个富集策略。
client.enrich.putPolicy({ name })
参数
编辑-
请求 (对象)
-
name
(string): 要创建或更新的富集策略的名称。 -
geo_match
(可选, { enrich_fields, indices, match_field, query, name, elasticsearch_version }): 根据geo_shape
查询将富集数据与传入文档匹配。 -
match
(可选, { enrich_fields, indices, match_field, query, name, elasticsearch_version }): 根据term
查询将富集数据与传入文档匹配。 -
range
(可选, { enrich_fields, indices, match_field, query, name, elasticsearch_version }): 根据term
查询,将传入文档中的数字、日期或 IP 地址与富集索引中的范围匹配。
-
stats
编辑获取富集统计信息。返回富集协调器统计信息以及有关当前正在执行的富集策略的信息。
client.enrich.stats()
eql
编辑delete
编辑删除异步 EQL 搜索。删除异步 EQL 搜索或存储的同步 EQL 搜索。该 API 还会删除搜索结果。
client.eql.delete({ id })
参数
编辑-
请求 (对象)
-
id
(string): 要删除的搜索的标识符。异步搜索的 EQL 搜索 API 响应中提供了搜索 ID。如果请求的keep_on_completion
参数为true
,也会提供搜索 ID。
-
get
编辑获取异步 EQL 搜索结果。获取异步 EQL 搜索或存储的同步 EQL 搜索的当前状态和可用结果。
client.eql.get({ id })
参数
编辑-
请求 (对象)
-
id
(string): 搜索的标识符。 -
keep_alive
(可选, string | -1 | 0): 搜索及其结果在集群上存储的时长。默认为搜索的 EQL 搜索 API 请求设置的 keep_alive 值。 -
wait_for_completion_timeout
(可选, string | -1 | 0): 等待请求完成的超时持续时间。默认为无超时,表示请求会等待完整的搜索结果。
-
get_status
编辑获取异步 EQL 状态。获取异步 EQL 搜索或存储的同步 EQL 搜索的当前状态,但不返回结果。
client.eql.getStatus({ id })
参数
编辑-
请求 (对象)
-
id
(string): 搜索的标识符。
-
search
编辑获取 EQL 搜索结果。返回事件查询语言 (EQL) 查询的搜索结果。EQL 假定数据流或索引中的每个文档都对应一个事件。
client.eql.search({ index, query })
参数
编辑-
请求 (对象)
-
index
(string | string[]): 用于限定操作范围的索引名称 -
query
(string): 您希望运行的 EQL 查询。 -
case_sensitive
(可选, boolean) -
event_category_field
(可选, string): 包含事件分类的字段,例如进程、文件或网络。 -
tiebreaker_field
(可选, string): 用于按升序对具有相同时间戳的命中项进行排序的字段 -
timestamp_field
(可选, string): 包含事件时间戳的字段。默认为 "@timestamp" -
fetch_size
(可选, number): 序列查询每次搜索的最大事件数。 -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type } | { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }[]): 使用查询 DSL 编写的查询,用于筛选 EQL 查询运行的事件。 -
keep_alive
(可选, string | -1 | 0) -
keep_on_completion
(可选, boolean) -
wait_for_completion_timeout
(可选, string | -1 | 0) -
size
(可选, number): 对于基本查询,要返回的最大匹配事件数。默认为 10 -
fields
(可选, { field, format, include_unmapped } | { field, format, include_unmapped }[]): 通配符 (*) 模式数组。响应会在每个命中项的 fields 属性中返回与这些模式匹配的字段名称的值。 -
result_position
(可选, Enum("tail" | "head")) -
runtime_mappings
(可选, Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>) -
allow_no_indices
(可选, boolean) -
expand_wildcards
(可选, Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]) -
ignore_unavailable
(可选, 布尔值): 如果为 true,则响应中不包含丢失或关闭的索引。
-
esql
编辑async_query
编辑异步执行 ESQL 请求
client.esql.asyncQuery()
async_query_get
编辑检索之前提交的异步查询请求的结果(给定其 ID)。
client.esql.asyncQueryGet()
query
编辑运行 ES|QL 查询。获取 ES|QL (Elasticsearch 查询语言) 查询的搜索结果。
client.esql.query({ query })
参数
编辑-
请求 (对象)
-
query
(string): ES|QL 查询 API 接受 query 参数中的 ES|QL 查询字符串,运行它并返回结果。 -
columnar
(可选, boolean): 默认情况下,ES|QL 将结果作为行返回。例如,FROM 将每个单独的文档作为一行返回。对于 JSON、YAML、CBOR 和 smile 格式,ES|QL 可以以列格式返回结果,其中一行表示结果中某个列的所有值。 -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 在 filter 参数中指定 Query DSL 查询,以筛选 ES|QL 查询运行的文档集。 -
locale
(可选, string) -
params
(可选, number | number | string | boolean | null | User-defined value[]): 为了避免任何黑客攻击或代码注入尝试,请在单独的参数列表中提取值。在查询字符串中为每个参数使用问号占位符 (?)。 -
profile
(可选, boolean): 如果提供且为true
,则响应将包括一个额外的profile
对象,其中包含有关如何执行查询的信息。此信息用于人工调试,其格式可能随时更改,但它可以提供对查询每个部分的性能的一些见解。 -
tables
(可选, Record<string, Record<string, { integer, keyword, long, double }>>): 用于 LOOKUP 操作的表。顶层键是表名称,下一层键是列名称。 -
format
(可选, Enum("csv" | "json" | "tsv" | "txt" | "yaml" | "cbor" | "smile" | "arrow")): Accept 标头的简短版本,例如 json、yaml。 -
delimiter
(可选, string): 在 CSV 行中的值之间使用的字符。仅对 CSV 格式有效。 -
drop_null_columns
(可选, boolean): 是否应从结果的columns
和values
部分删除完全为null
的列?默认为false
。如果为true
,则响应将在名为all_columns
的部分下包含一个额外的部分,其中包含所有列的名称。
-
features
编辑get_features
编辑获取可以使用 feature_states 字段在创建快照时包含在快照中的功能列表
client.features.getFeatures()
reset_features
编辑重置功能的内部状态,通常通过删除系统索引
client.features.resetFeatures()
fleet
编辑global_checkpoints
编辑返回索引的当前全局检查点。此 API 专为 Fleet Server 项目内部使用而设计。
client.fleet.globalCheckpoints({ index })
参数
编辑-
请求 (对象)
-
index
(string | string): 解析为单个索引的单个索引或索引别名。 -
wait_for_advance
(可选, 布尔值):一个布尔值,用于控制是否等待(直到超时)全局检查点前进到超出提供的checkpoints
。 -
wait_for_index
(可选, 布尔值):一个布尔值,用于控制是否等待(直到超时)目标索引存在并且所有主分片处于活动状态。只有当wait_for_advance
为 true 时才能为 true。 -
checkpoints
(可选, 数字数组):一个逗号分隔的先前全局检查点列表。当与wait_for_advance
结合使用时,API 将仅在全局检查点前进到超出检查点后返回。提供一个空列表将导致 Elasticsearch 立即返回当前全局检查点。 -
timeout
(可选, 字符串 | -1 | 0):等待全局检查点前进到超出checkpoints
的时间段。
-
msearch
编辑使用单个 API 请求执行多个[fleet 搜索](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/fleet-search.html)。该 API 的结构与[多重搜索](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/search-multi-search.html) API 相同。但是,与 fleet 搜索 API 类似,它支持 wait_for_checkpoints 参数。
client.fleet.msearch({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串):要搜索的单个目标。如果目标是索引别名,则它必须解析为单个索引。 -
searches
(可选, { allow_no_indices, expand_wildcards, ignore_unavailable, index, preference, request_cache, routing, search_type, ccs_minimize_roundtrips, allow_partial_search_results, ignore_throttled } | { aggregations, collapse, query, explain, ext, stored_fields, docvalue_fields, knn, from, highlight, indices_boost, min_score, post_filter, profile, rescore, script_fields, search_after, size, sort, _source, fields, terminate_after, stats, timeout, track_scores, track_total_hits, version, runtime_mappings, seq_no_primary_term, pit, suggest }[]) -
allow_no_indices
(可选, 布尔值): 如果为 false,则当任何通配符表达式、索引别名或 _all 值仅指向丢失或关闭的索引时,请求将返回错误。即使请求指向其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以 bar 开头,则指向 foo*,bar* 的请求会返回错误。 -
ccs_minimize_roundtrips
(可选, 布尔值): 如果为 true,则对于跨集群搜索请求,协调节点和远程集群之间的网络往返次数将最小化。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符表达式可以匹配的索引类型。如果请求可以定位数据流,则此参数确定通配符表达式是否匹配隐藏数据流。 -
ignore_throttled
(可选, 布尔值): 如果为 true,则在冻结时将忽略具体的、展开的或别名的索引。 -
ignore_unavailable
(可选, 布尔值): 如果为 true,则响应中不包含丢失或关闭的索引。 -
max_concurrent_searches
(可选, 数字): 多搜索 API 可以执行的最大并发搜索数。 -
max_concurrent_shard_requests
(可选, 数字): 每个子搜索请求在每个节点上执行的最大并发分片请求数。 -
pre_filter_shard_size
(可选, 数字): 定义一个阈值,如果搜索请求扩展到的分片数超过该阈值,则强制执行预筛选往返,以基于查询重写预筛选搜索分片。如果例如分片无法基于其重写方法匹配任何文档(即,如果日期过滤器对于匹配是强制性的,但分片边界和查询是不相交的),则此筛选往返可以显着限制分片数。 -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")): 指示在对返回的文档进行评分时是否应使用全局术语和文档频率。 -
rest_total_hits_as_int
(可选, 布尔值): 如果为 true,则响应中的 hits.total 将作为整数返回。默认为 false,返回一个对象。 -
typed_keys
(可选, 布尔值): 指定是否应在响应中为聚合和建议器名称添加各自类型的前缀。 -
wait_for_checkpoints
(可选, 数字数组):一个逗号分隔的检查点列表。配置后,只有在相关的检查点对于搜索可见后,搜索 API 才会对分片执行。默认为空列表,这将导致 Elasticsearch 立即执行搜索。 -
allow_partial_search_results
(可选, 布尔值):如果为 true,则在分片请求超时或[分片故障](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/docs-replication.html#shard-failures)时返回部分结果。如果为 false,则返回错误,不包含任何部分结果。默认为配置的集群设置search.default_allow_partial_results
,默认情况下为 true。
-
search
编辑fleet 搜索 API 的目的是提供一个搜索 API,只有在提供的检查点已被处理并且在 Elasticsearch 中对搜索可见后,才会执行搜索。
client.fleet.search({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串):要搜索的单个目标。如果目标是索引别名,则它必须解析为单个索引。 -
aggregations
(可选, Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>) -
collapse
(可选, { field, inner_hits, max_concurrent_group_searches, collapse }) -
explain
(可选, 布尔值):如果为 true,则作为匹配项的一部分返回有关分数计算的详细信息。 -
ext
(可选, Record<string, 用户定义值>):由 Elasticsearch 插件定义的搜索扩展的配置。 -
from
(可选, 数字):起始文档偏移量。默认情况下,您不能使用 from 和 size 参数分页浏览超过 10,000 个命中。要分页浏览更多命中,请使用 search_after 参数。 -
highlight
(可选, { encoder, fields }) -
track_total_hits
(可选, 布尔值 | 数字):精确计数匹配查询的命中数。如果为 true,则会以一定的性能开销返回精确的命中数。如果为 false,则响应不包含与查询匹配的命中总数。默认为 10,000 个命中。 -
indices_boost
(可选, Record<string, number>[]):提高来自指定索引的文档的 _score。 -
docvalue_fields
(可选, { field, format, include_unmapped }[]):通配符 (*) 模式的数组。请求返回匹配这些模式的字段名称的文档值,位于响应的 hits.fields 属性中。 -
min_score
(可选, 数字):匹配文档的最小 _score。_score 较低的文档不包括在搜索结果中。 -
post_filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }) -
profile
(可选, 布尔值) -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 使用查询 DSL 定义搜索定义。 -
rescore
(可选, { window_size, query, learning_to_rank } | { window_size, query, learning_to_rank }[]) -
script_fields
(可选,Record<string, { script, ignore_failure }>): 检索每个命中的脚本评估(基于不同的字段)。 -
search_after
(可选, 数字 | 数字 | 字符串 | 布尔值 | null | 用户定义的值数组) -
size
(可选, 数字):要返回的命中数。默认情况下,您不能使用 from 和 size 参数分页浏览超过 10,000 个命中。要分页浏览更多命中,请使用 search_after 参数。 -
slice
(可选, { field, id, max }) -
sort
(可选, 字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]) -
_source
(可选, 布尔值 | { excludes, includes }): 指示返回匹配文档的哪些源字段。这些字段在搜索响应的 hits._source 属性中返回。 -
fields
(可选, { field, format, include_unmapped }[]):通配符 (*) 模式的数组。请求返回与这些模式匹配的字段名称的值,位于响应的 hits.fields 属性中。 -
suggest
(可选, { text }) -
terminate_after
(可选, 数字):每个分片要收集的最大文档数。如果查询达到此限制,Elasticsearch 会提前终止查询。Elasticsearch 在排序之前收集文档。默认为 0,表示不提前终止查询执行。 -
timeout
(可选,字符串): 指定等待每个分片响应的时间段。如果在超时到期之前没有收到响应,则请求失败并返回错误。默认为无超时。 -
track_scores
(可选,布尔值): 如果为 true,则计算并返回文档得分,即使得分未用于排序。 -
version
(可选,布尔值): 如果为 true,则返回文档版本作为命中结果的一部分。 -
seq_no_primary_term
(可选, 布尔值):如果为 true,则返回每个命中的最后一次修改的序列号和主项。请参阅乐观并发控制。 -
stored_fields
(可选, 字符串 | 字符串数组): 作为命中一部分返回的存储字段列表。如果未指定任何字段,则响应中不包含任何存储字段。如果指定了此字段,则 _source 参数默认为 false。您可以传递 _source: true 以在搜索响应中返回源字段和存储字段。 -
pit
(可选, { id, keep_alive }):将搜索限制为时间点 (PIT)。如果提供 PIT,则不能在请求路径中指定 <index>。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 在搜索请求中定义一个或多个运行时字段。这些字段的优先级高于具有相同名称的映射字段。 -
stats
(可选,字符串[]): 与搜索关联的统计组。每个组维护其关联搜索的统计聚合。您可以使用索引统计 API 检索这些统计信息。 -
allow_no_indices
(可选, boolean) -
analyzer
(可选, 字符串) -
analyze_wildcard
(可选, 布尔值) -
batched_reduce_size
(可选, 数字) -
ccs_minimize_roundtrips
(可选, 布尔值) -
default_operator
(可选, 枚举("and" | "or")) -
df
(可选, 字符串) -
expand_wildcards
(可选, Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]) -
ignore_throttled
(可选, 布尔值) -
ignore_unavailable
(可选, 布尔值) -
lenient
(可选, 布尔值) -
max_concurrent_shard_requests
(可选, 数字) -
min_compatible_shard_node
(可选, 字符串) -
preference
(可选, 字符串) -
pre_filter_shard_size
(可选, 数字) -
request_cache
(可选, 布尔值) -
routing
(可选, 字符串) -
scroll
(可选, 字符串 | -1 | 0) -
search_type
(可选, 枚举("query_then_fetch" | "dfs_query_then_fetch")) -
suggest_field
(可选,字符串):指定用于建议的字段。 -
suggest_mode
(可选, 枚举("missing" | "popular" | "always")) -
suggest_size
(可选, 数字) -
suggest_text
(可选, 字符串): 应返回建议的源文本。 -
typed_keys
(可选, 布尔值) -
rest_total_hits_as_int
(可选, 布尔值) -
_source_excludes
(可选, 字符串 | 字符串数组) -
_source_includes
(可选, 字符串 | 字符串数组) -
q
(可选, 字符串) -
wait_for_checkpoints
(可选, 数字数组):一个逗号分隔的检查点列表。配置后,只有在相关的检查点对于搜索可见后,搜索 API 才会对分片执行。默认为空列表,这将导致 Elasticsearch 立即执行搜索。 -
allow_partial_search_results
(可选, 布尔值):如果为 true,则在分片请求超时或[分片故障](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/docs-replication.html#shard-failures)时返回部分结果。如果为 false,则返回错误,不包含任何部分结果。默认为配置的集群设置search.default_allow_partial_results
,默认情况下为 true。
-
graph
编辑explore
编辑浏览图形分析。提取和汇总有关 Elasticsearch 数据流或索引中的文档和术语的信息。了解此 API 行为的最简单方法是使用图形 UI 来浏览连接。对 _explore
API 的初始请求包含一个种子查询,该查询标识感兴趣的文档并指定定义要在图中包含的顶点和连接的字段。后续请求使您可以从一个或多个感兴趣的顶点向外扩展。您可以排除已返回的顶点。
client.graph.explore({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组):索引的名称。 -
connections
(可选, { connections, query, vertices }):指定要从中提取与指定顶点关联的术语的一个或多个字段。 -
controls
(可选, { sample_diversity, sample_size, timeout, use_significance }):指导图形 API 如何构建图形。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):一个种子查询,用于标识感兴趣的文档。可以是任何有效的 Elasticsearch 查询。 -
vertices
(可选, { exclude, field, include, min_doc_count, shard_min_doc_count, size }[]):指定一个或多个包含要作为顶点包含在图中的术语的字段。 -
routing
(可选, 字符串): 用于将操作路由到特定分片的自定义值。 -
timeout
(可选, 字符串 | -1 | 0):指定等待每个分片响应的时间段。如果在超时到期之前未收到任何响应,则请求将失败并返回错误。默认为无超时。
-
ilm
编辑delete_lifecycle
编辑删除指定的生命周期策略定义。您不能删除当前正在使用的策略。如果该策略正用于管理任何索引,则请求将失败并返回错误。
client.ilm.deleteLifecycle({ policy })
参数
编辑-
请求 (对象)
-
policy
(字符串):策略的标识符。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
explain_lifecycle
编辑检索有关索引当前生命周期状态的信息,例如当前正在执行的阶段、操作和步骤。显示索引进入每个阶段的时间、正在运行的阶段的定义以及有关任何失败的信息。
client.ilm.explainLifecycle({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):要定位的数据流、索引和别名的列表。支持通配符 (*
)。要定位所有数据流和索引,请使用*
或_all
。 -
only_errors
(可选, 布尔值):将返回的索引过滤为仅由 ILM 管理且处于错误状态的索引,原因可能是执行策略时遇到错误,或者尝试使用不存在的策略。 -
only_managed
(可选, 布尔值):将返回的索引过滤为仅由 ILM 管理的索引。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_lifecycle
编辑检索生命周期策略。
client.ilm.getLifecycle({ ... })
参数
编辑-
请求 (对象)
-
policy
(可选, 字符串):策略的标识符。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_status
编辑检索当前索引生命周期管理 (ILM) 状态。
client.ilm.getStatus()
migrate_to_data_tiers
编辑将索引、ILM 策略以及旧的、可组合的和组件模板从使用自定义节点属性和基于属性的分配过滤器切换为使用数据层,并可以选择删除一个旧的索引模板。+ 使用节点角色使 ILM 能够自动在数据层之间移动索引。
client.ilm.migrateToDataTiers({ ... })
参数
编辑-
请求 (对象)
-
legacy_template_to_delete
(可选, 字符串) -
node_attribute
(可选, 字符串) -
dry_run
(可选, 布尔值):如果为 true,则模拟从基于节点属性的分配过滤器迁移到数据层,但不执行迁移。这提供了一种检索需要迁移的索引和 ILM 策略的方法。
-
move_to_step
编辑手动将索引移动到指定的步骤并执行该步骤。
client.ilm.moveToStep({ index, current_step, next_step })
参数
编辑-
请求 (对象)
-
index
(字符串):要更改生命周期步骤的索引的名称 -
current_step
({ action, name, phase }) -
next_step
({ action, name, phase })
-
put_lifecycle
编辑创建生命周期策略。如果指定的策略存在,则会替换该策略,并且策略版本会递增。
client.ilm.putLifecycle({ policy })
参数
编辑-
请求 (对象)
-
policy
(字符串):策略的标识符。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
remove_policy
编辑删除分配的生命周期策略并停止管理指定的索引
client.ilm.removePolicy({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):要删除策略的索引的名称
-
retry
编辑重试执行处于 ERROR 步骤的索引的策略。
client.ilm.retry({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):要重试其失败的生命周期步骤的索引的名称(以逗号分隔)
-
start
编辑启动索引生命周期管理 (ILM) 插件。
client.ilm.start({ ... })
参数
编辑-
请求 (对象)
-
master_timeout
(可选, 字符串 | -1 | 0) -
timeout
(可选, 字符串 | -1 | 0)
-
stop
编辑停止所有生命周期管理操作并停止索引生命周期管理 (ILM) 插件
client.ilm.stop({ ... })
参数
编辑-
请求 (对象)
-
master_timeout
(可选, 字符串 | -1 | 0) -
timeout
(可选, 字符串 | -1 | 0)
-
indices
编辑add_block
编辑添加索引块。通过阻止特定操作类型来限制对索引允许的操作。
client.indices.addBlock({ index, block })
参数
编辑-
请求 (对象)
-
index
(字符串):要向其添加块的索引的逗号分隔列表 -
block
(Enum("metadata" | "read" | "read_only" | "write")): 要添加的块(可以是 read、write、read_only 或 metadata 中的一个) -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略 -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
analyze
编辑从文本分析中获取分词。analyze API 对文本字符串执行[分析](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/analysis.html)并返回结果分词。
client.indices.analyze({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串): 用于推导分析器的索引。如果指定,则analyzer
或 field 参数会覆盖此值。如果未指定索引或索引没有默认分析器,则 analyze API 使用 standard 分析器。 -
analyzer
(可选, 字符串): 应应用于提供的text
的分析器的名称。这可以是内置分析器,也可以是在索引中配置的分析器。 -
attributes
(可选, 字符串数组): 用于过滤explain
参数输出的分词属性数组。 -
char_filter
(可选, 字符串 | { type, escaped_tags } | { type, mappings, mappings_path } | { type, flags, pattern, replacement } | { type, mode, name } | { type, normalize_kana, normalize_kanji }[]): 用于在分词器之前预处理字符的字符过滤器数组。 -
explain
(可选, 布尔值): 如果为true
,则响应包括分词属性和其他详细信息。 -
field
(可选, 字符串): 用于推导分析器的字段。要使用此参数,必须指定一个索引。如果指定,则analyzer
参数会覆盖此值。 -
filter
(可选, 字符串 | { type, preserve_original } | { type, common_words, common_words_path, ignore_case, query_mode } | { type, filter, script } | { type, delimiter, encoding } | { type, max_gram, min_gram, side, preserve_original } | { type, articles, articles_path, articles_case } | { type, max_output_size, separator } | { type, dedup, dictionary, locale, longest_only } | { type } | { type, mode, types } | { type, keep_words, keep_words_case, keep_words_path } | { type, ignore_case, keywords, keywords_path, keywords_pattern } | { type } | { type, max, min } | { type, consume_all_tokens, max_token_count } | { type, language } | { type, filters, preserve_original } | { type, max_gram, min_gram, preserve_original } | { type, stoptags } | { type, patterns, preserve_original } | { type, all, flags, pattern, replacement } | { type } | { type, script } | { type } | { type } | { type, filler_token, max_shingle_size, min_shingle_size, output_unigrams, output_unigrams_if_no_shingles, token_separator } | { type, language } | { type, rules, rules_path } | { type, language } | { type, ignore_case, remove_trailing, stopwords, stopwords_path } | { type, expand, format, lenient, synonyms, synonyms_path, synonyms_set, tokenizer, updateable } | { type, expand, format, lenient, synonyms, synonyms_path, synonyms_set, tokenizer, updateable } | { type } | { type, length } | { type, only_on_same_position } | { type } | { type, adjust_offsets, catenate_all, catenate_numbers, catenate_words, generate_number_parts, generate_word_parts, ignore_keywords, preserve_original, protected_words, protected_words_path, split_on_case_change, split_on_numerics, stem_english_possessive, type_table, type_table_path } | { type, catenate_all, catenate_numbers, catenate_words, generate_number_parts, generate_word_parts, preserve_original, protected_words, protected_words_path, split_on_case_change, split_on_numerics, stem_english_possessive, type_table, type_table_path } | { type, minimum_length } | { type, use_romaji } | { type, stoptags } | { type, alternate, case_first, case_level, country, decomposition, hiragana_quaternary_mode, language, numeric, rules, strength, variable_top, variant } | { type, unicode_set_filter } | { type, name } | { type, dir, id } | { type, encoder, languageset, max_code_len, name_type, replace, rule_type } | { type }[]): 用于在分词器之后应用的词元过滤器数组。 -
normalizer
(可选, 字符串): 用于将文本转换为单个词元的规范化器。 -
text
(可选, 字符串 | 字符串数组): 要分析的文本。如果提供了字符串数组,则将其作为多值字段进行分析。 -
tokenizer
(可选, 字符串 | { type, tokenize_on_chars, max_token_length } | { type, max_token_length } | { type, custom_token_chars, max_gram, min_gram, token_chars } | { type, buffer_size } | { type } | { type } | { type, custom_token_chars, max_gram, min_gram, token_chars } | { type, buffer_size, delimiter, replacement, reverse, skip } | { type, flags, group, pattern } | { type, pattern } | { type, pattern } | { type, max_token_length } | { type } | { type, max_token_length } | { type, max_token_length } | { type, rule_files } | { type, discard_punctuation, mode, nbest_cost, nbest_examples, user_dictionary, user_dictionary_rules, discard_compound_token } | { type, decompound_mode, discard_punctuation, user_dictionary, user_dictionary_rules }): 用于将文本转换为词元的分词器。
-
clear_cache
编辑清除一个或多个索引的缓存。对于数据流,该 API 会清除流的后备索引的缓存。
client.indices.clearCache({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
fielddata
(可选, 布尔值): 如果为true
,则清除字段缓存。使用fields
参数仅清除特定字段的缓存。 -
fields
(可选, 字符串 | 字符串数组): 用于限制fielddata
参数的字段名称列表。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
query
(可选, 布尔值): 如果为true
,则清除查询缓存。 -
request
(可选, 布尔值): 如果为true
,则清除请求缓存。
-
clone
编辑克隆现有索引。
client.indices.clone({ index, target })
参数
编辑-
请求 (对象)
-
index
(字符串): 要克隆的源索引的名称。 -
target
(字符串): 要创建的目标索引的名称。 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>): 结果索引的别名。 -
settings
(可选, Record<string, 用户定义的值>): 目标索引的配置选项。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
close
编辑关闭索引。
client.indices.close({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 用于限制请求的索引名称的列表或通配符表达式。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
create
编辑创建索引。创建新的索引。
client.indices.create({ index })
参数
编辑-
请求 (对象)
-
index
(字符串): 要创建的索引的名称。 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>): 索引的别名。 -
mappings
(可选, { all_field, date_detection, dynamic, dynamic_date_formats, dynamic_templates, _field_names, index_field, _meta, numeric_detection, properties, _routing, _size, _source, runtime, enabled, subobjects, _data_stream_timestamp }): 索引中字段的映射。如果指定,则此映射可以包括- 字段名称
- 字段数据类型
- 映射参数
-
settings
(可选, { index, mode, routing_path, soft_deletes, sort, number_of_shards, number_of_replicas, number_of_routing_shards, check_on_startup, codec, routing_partition_size, load_fixed_bitset_filters_eagerly, hidden, auto_expand_replicas, merge, search, refresh_interval, max_result_window, max_inner_result_window, max_rescore_window, max_docvalue_fields_search, max_script_fields, max_ngram_diff, max_shingle_diff, blocks, max_refresh_listeners, analyze, highlight, max_terms_count, max_regex_length, routing, gc_deletes, default_pipeline, final_pipeline, lifecycle, provided_name, creation_date, creation_date_string, uuid, version, verified_before_close, format, max_slices_per_scroll, translog, query_string, priority, top_metrics_max_size, analysis, settings, time_series, queries, similarity, mapping, indexing.slowlog, indexing_pressure, store }): 索引的配置选项。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
create_data_stream
编辑创建数据流。创建一个数据流。您必须有一个启用了数据流的匹配索引模板。
client.indices.createDataStream({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 数据流的名称,必须满足以下条件:仅限小写;不能包含\
、/
、*
、?
、"
、<
、>
、|
、,
、#
、:
或空格字符;不能以-
、_
、+
或.ds-
开头;不能是.
或..
;长度不能超过 255 字节。多字节字符计入此限制的速度更快。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
data_streams_stats
编辑获取数据流统计信息。检索一个或多个数据流的统计信息。
client.indices.dataStreamsStats({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串): 用于限制请求的数据流列表。支持通配符表达式 (*
)。要定位集群中的所有数据流,请省略此参数或使用*
。 -
expand_wildcards
(可选, Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的数据流类型。支持值列表,例如open,hidden
。
-
delete
编辑删除索引。删除一个或多个索引。
client.indices.delete({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 要删除的索引列表。不能指定索引别名。默认情况下,此参数不支持通配符 (*
) 或_all
。要使用通配符或_all
,请将action.destructive_requires_name
集群设置设置为false
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
delete_alias
编辑删除别名。从别名中删除数据流或索引。
client.indices.deleteAlias({ index, name })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 用于限制请求的数据流或索引列表。支持通配符 (*
)。 -
name
(字符串 | 字符串数组): 要删除的别名列表。支持通配符 (*
)。要删除所有别名,请使用*
或_all
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
delete_data_lifecycle
编辑删除数据流生命周期。从数据流中删除数据流生命周期,使其不受数据流生命周期的管理。
client.indices.deleteDataLifecycle({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串数组): 将删除数据流生命周期的数据流列表;使用*
获取所有数据流 -
expand_wildcards
(可选, Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]): 通配符表达式是否应扩展为打开或关闭的索引(默认值:打开) -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时 -
timeout
(可选,字符串 | -1 | 0): 文档的显式时间戳
-
delete_data_stream
编辑删除数据流。删除一个或多个数据流及其后备索引。
client.indices.deleteDataStream({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]): 要删除的数据流列表。支持通配符 (*
) 表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
expand_wildcards
(可选,枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的数据流类型。支持值列表,例如open,hidden
。
-
delete_index_template
编辑删除索引模板。提供的 <index-template> 可能包含多个以逗号分隔的模板名称。如果指定了多个模板名称,则不支持通配符,并且提供的名称应与现有模板完全匹配。
client.indices.deleteIndexTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]): 用于限制请求的索引模板名称列表。支持通配符 (*) 表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
delete_template
编辑删除旧的索引模板。
client.indices.deleteTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要删除的旧索引模板的名称。支持通配符 (*
) 表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
disk_usage
编辑分析索引或数据流的每个字段的磁盘使用情况。
client.indices.diskUsage({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 用于限制请求的数据流、索引和别名列表。建议使用单个索引(或数据流的最新后备索引)执行此 API,因为该 API 会消耗大量资源。 -
allow_no_indices
(可选,布尔值): 如果为 false,则当任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标时,请求将返回错误。即使请求以其他打开的索引为目标,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则以foo*,bar*
为目标的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
flush
(可选,布尔值): 如果为true
,则 API 在分析之前执行刷新。如果为false
,则响应可能不包含未提交的数据。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则响应中不包括缺失或关闭的索引。 -
run_expensive_tasks
(可选,布尔值): 分析字段磁盘使用情况会消耗大量资源。要使用该 API,必须将此参数设置为true
。
-
downsample
编辑聚合时间序列 (TSDS) 索引,并为每个度量字段存储按配置的时间间隔分组的预计算统计摘要 (min
、max
、sum
、value_count
和 avg
)。
client.indices.downsample({ index, target_index })
参数
编辑-
请求 (对象)
-
index
(字符串): 要降采样的时间序列索引的名称。 -
target_index
(字符串): 要创建的索引的名称。 -
config
(可选,{ fixed_interval })
-
exists
编辑检查索引。检查是否存在一个或多个索引、索引别名或数据流。
client.indices.exists({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 数据流、索引和别名列表。支持通配符 (*
)。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
include_defaults
(可选,布尔值): 如果为true
,则在响应中返回所有默认设置。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。
-
exists_alias
编辑检查别名。检查是否存在一个或多个数据流或索引别名。
client.indices.existsAlias({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]): 要检查的别名列表。支持通配符 (*
)。 -
index
(可选,字符串 | 字符串[]): 用于限制请求的数据流或索引列表。支持通配符 (*
)。要以所有数据流和索引为目标,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选,布尔值): 如果为false
,则在目标索引或数据流中包含丢失的数据流或索引的请求将返回错误。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。
-
exists_index_template
编辑检查索引模板。检查索引模板是否存在。
client.indices.existsIndexTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 用于限制请求的索引模板名称列表。支持通配符 (*) 表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
exists_template
编辑检查索引模板是否存在。返回有关特定索引模板是否存在的信息。
client.indices.existsTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]): 以逗号分隔的索引模板名称 -
flat_settings
(可选, boolean): 以扁平格式返回设置(默认值:false) -
local
(可选, boolean): 返回本地信息,不要从主节点检索状态(默认值:false) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时
-
explain_data_lifecycle
编辑获取数据流生命周期的状态。检索有关索引或数据流的当前数据流生命周期状态的信息,例如自索引创建以来的时间、自滚动以来的时间、管理索引的生命周期配置或在生命周期执行期间遇到的任何错误。
client.indices.explainDataLifecycle({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 要解释的索引的名称 -
include_defaults
(可选,布尔值): 指示 API 是否应返回系统用于索引生命周期的默认值 -
master_timeout
(可选, 字符串 | -1 | 0): 指定与主节点的连接超时
-
field_usage_stats
编辑返回索引的每个分片和字段的字段使用信息。
client.indices.fieldUsageStats({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 用于限制请求的索引名称的列表或通配符表达式。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则响应中不包括缺失或关闭的索引。 -
fields
(可选,字符串 | 字符串[]): 要包含在统计信息中的字段的列表或通配符表达式。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
flush
编辑刷新一个或多个数据流或索引。
client.indices.flush({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串 | 字符串[]): 要刷新的数据流、索引和别名列表。支持通配符 (*
)。要刷新所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
force
(可选,布尔值): 如果为true
,则即使没有要提交到索引的更改,请求也会强制刷新。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
wait_if_ongoing
(可选,布尔值): 如果为true
,则当另一个刷新操作正在运行时,刷新操作将阻塞直到执行。如果为false
,则当另一个刷新操作正在运行时,如果请求刷新,则 Elasticsearch 会返回错误。
-
forcemerge
编辑对一个或多个索引执行强制合并操作。
client.indices.forcemerge({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, string | string[]): 索引名称列表;使用_all
或空字符串对所有索引执行操作 -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
flush
(可选,布尔值): 指定在执行操作后是否应刷新索引(默认值:true) -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略 -
max_num_segments
(可选,数字): 索引应合并到的段数(默认值:动态) -
only_expunge_deletes
(可选,布尔值): 指定操作是否应仅清除已删除的文档 -
wait_for_completion
(可选,布尔值): 请求是否应等待强制合并完成。
-
get
编辑获取索引信息。返回有关一个或多个索引的信息。对于数据流,API 返回有关流的后备索引的信息。
client.indices.get({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串[]): 用于限制请求的数据流、索引和索引别名列表。支持通配符表达式 (*)。 -
allow_no_indices
(可选, 布尔值): 如果为 false,则当任何通配符表达式、索引别名或 _all 值仅指向丢失或关闭的索引时,请求将返回错误。即使请求指向其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以 bar 开头,则指向 foo*,bar* 的请求会返回错误。 -
expand_wildcards
(可选,枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符表达式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如 open,hidden。 -
flat_settings
(可选,布尔值): 如果为 true,则以平面格式返回设置。 -
ignore_unavailable
(可选,布尔值): 如果为 false,则以丢失的索引为目标的请求将返回错误。 -
include_defaults
(可选,布尔值): 如果为 true,则在响应中返回所有默认设置。 -
local
(可选,布尔值):如果为 true,则请求仅从本地节点检索信息。默认为 false,这意味着从主节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
features
(可选,{ name, description } | { name, description }[]): 仅返回指定索引功能的信息
-
get_alias
编辑获取别名。检索一个或多个数据流或索引别名的信息。
client.indices.getAlias({ ... })
参数
编辑-
请求 (对象)
-
name
(可选,字符串 | 字符串[]): 要检索的别名列表。支持通配符 (*
)。要检索所有别名,请省略此参数或使用*
或_all
。 -
index
(可选,字符串 | 字符串[]): 用于限制请求的数据流或索引列表。支持通配符 (*
)。要以所有数据流和索引为目标,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。
-
get_data_lifecycle
编辑获取数据流生命周期。检索一个或多个数据流的数据流生命周期配置。
client.indices.getDataLifecycle({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串[]): 用于限制请求的数据流列表。支持通配符 (*
)。要以所有数据流为目标,请省略此参数或使用*
或_all
。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的数据流类型。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
include_defaults
(可选,布尔值): 如果为true
,则在响应中返回所有默认设置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_data_stream
编辑获取数据流。检索一个或多个数据流的信息。
client.indices.getDataStream({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串 | 字符串数组): 用于限制请求的数据流名称列表。支持通配符 (*
) 表达式。如果省略,则返回所有数据流。 -
expand_wildcards
(可选, Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的数据流类型。支持值列表,例如open,hidden
。 -
include_defaults
(可选, 布尔值): 如果为 true,则返回索引模板的所有相关默认配置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
verbose
(可选, 布尔值): 是否应计算并返回每个数据流的最大时间戳。
-
get_field_mapping
编辑获取字段映射定义。检索一个或多个字段的映射定义。对于数据流,API检索流的后备索引的字段映射。
client.indices.getFieldMapping({ fields })
参数
编辑-
请求 (对象)
-
fields
(字符串 | 字符串数组): 用于限制返回信息的字段的列表或通配符表达式。 -
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
include_defaults
(可选,布尔值): 如果为true
,则在响应中返回所有默认设置。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。
-
get_index_template
编辑获取索引模板。返回一个或多个索引模板的信息。
client.indices.getIndexTemplate({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串): 用于限制请求的索引模板名称列表。支持通配符 (*) 表达式。 -
local
(可选,布尔值):如果为 true,则请求仅从本地节点检索信息。默认为 false,这意味着从主节点检索信息。 -
flat_settings
(可选,布尔值): 如果为 true,则以平面格式返回设置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
include_defaults
(可选, 布尔值): 如果为 true,则返回索引模板的所有相关默认配置。
-
get_mapping
编辑获取映射定义。检索一个或多个索引的映射定义。对于数据流,API检索流的后备索引的映射。
client.indices.getMapping({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_settings
编辑获取索引设置。返回一个或多个索引的设置信息。对于数据流,返回流的后备索引的设置信息。
client.indices.getSettings({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
name
(可选, 字符串 | 字符串数组): 要检索的设置的列表或通配符表达式。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求将返回错误。即使请求的目标是其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以bar
开头,则以foo*,bar*
为目标的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
include_defaults
(可选,布尔值): 如果为true
,则在响应中返回所有默认设置。 -
local
(可选,布尔值):如果true
,则请求仅从本地节点检索信息。如果false
,则从主节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_template
编辑获取索引模板。检索一个或多个索引模板的信息。
client.indices.getTemplate({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串 | 字符串数组): 用于限制请求的索引模板名称列表。支持通配符 (*
) 表达式。要返回所有索引模板,请省略此参数或使用_all
或*
的值。 -
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
local
(可选,布尔值):如果为true
,则请求仅从本地节点检索信息。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
migrate_to_data_stream
编辑将索引别名转换为数据流。将索引别名转换为数据流。您必须拥有一个启用数据流的匹配索引模板。别名必须满足以下条件:别名必须具有写入索引;别名的所有索引必须具有 @timestamp
字段映射,其字段类型为 date
或 date_nanos
;别名不能有任何过滤器;别名不能使用自定义路由。如果成功,请求将删除别名并创建具有相同名称的数据流。别名的索引将成为流的隐藏后备索引。别名的写入索引将成为流的写入索引。
client.indices.migrateToDataStream({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要转换为数据流的索引别名的名称。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
modify_data_stream
编辑更新数据流。在单个原子操作中执行一个或多个数据流修改操作。
client.indices.modifyDataStream({ actions })
参数
编辑-
请求 (对象)
-
actions
({ add_backing_index, remove_backing_index }[]): 要执行的操作。
-
open
编辑打开一个关闭的索引。对于数据流,API会打开任何关闭的后备索引。
client.indices.open({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 用于限制请求的数据流、索引和别名的列表。支持通配符 (*
)。默认情况下,您必须显式命名用于限制请求的索引。要使用_all
、*
或其他通配符表达式限制请求,请将action.destructive_requires_name
设置更改为 false。您可以在elasticsearch.yml
文件中或使用集群更新设置 API 更新此设置。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
promote_data_stream
编辑将由 CCR 管理的复制数据流提升为常规数据流
client.indices.promoteDataStream({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 数据流的名称 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_alias
编辑创建或更新别名。向别名添加数据流或索引。
client.indices.putAlias({ index, name })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 要添加的数据流或索引的列表。支持通配符 (*
)。匹配数据流和索引的通配符模式会返回错误。 -
name
(字符串): 要更新的别名。如果别名不存在,请求将创建它。索引别名名称支持日期数学。 -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 用于限制别名可以访问的文档的查询。 -
index_routing
(可选, 字符串): 用于将索引操作路由到特定分片的值。如果指定,这将覆盖索引操作的routing
值。数据流别名不支持此参数。 -
is_write_index
(可选, 布尔值): 如果为true
,则设置别名的写入索引或数据流。如果别名指向多个索引或数据流且未设置is_write_index
,则别名将拒绝写入请求。如果索引别名指向一个索引且未设置is_write_index
,则索引会自动充当写入索引。数据流别名不会自动设置写入数据流,即使别名指向一个数据流也是如此。 -
routing
(可选, 字符串): 用于将索引和搜索操作路由到特定分片的值。数据流别名不支持此参数。 -
search_routing
(可选, 字符串): 用于将搜索操作路由到特定分片的值。如果指定,这将覆盖搜索操作的routing
值。数据流别名不支持此参数。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_data_lifecycle
编辑更新数据流生命周期。更新指定数据流的数据流生命周期。
client.indices.putDataLifecycle({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串数组): 用于限制请求的数据流列表。支持通配符 (*
)。要以所有数据流为目标,请使用*
或_all
。 -
data_retention
(可选, 字符串 | -1 | 0): 如果定义,则添加到此数据流的每个文档都将至少存储此时间段。在此持续时间之后的任何时间,文档都可能被删除。如果为空,则此数据流中的每个文档都将无限期存储。 -
downsampling
(可选, { rounds }): 如果定义,则每个后备索引在后备索引不再是数据流写入索引后,将执行配置的降采样配置。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的数据流类型。支持值列表,例如open,hidden
。有效值包括:all
、hidden
、open
、closed
、none
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_index_template
编辑创建或更新索引模板。索引模板定义可以自动应用于新索引的设置、映射和别名。
client.indices.putIndexTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 索引或模板名称 -
index_patterns
(可选, 字符串 | 字符串数组): 要创建的索引模板的名称。 -
composed_of
(可选, 字符串数组): 组件模板名称的有序列表。组件模板按照指定的顺序合并,这意味着最后一个指定的组件模板具有最高优先级。 -
template
(可选, { aliases, mappings, settings, lifecycle }): 要应用的模板。它可以选择性地包含aliases
、mappings
或settings
配置。 -
data_stream
(可选, { hidden, allow_custom_routing }): 如果包含此对象,则该模板用于创建数据流及其后备索引。支持空对象。数据流需要一个带有data_stream
对象的匹配索引模板。 -
priority
(可选, 数字): 用于确定在创建新的数据流或索引时索引模板优先级的优先级。选择具有最高优先级的索引模板。如果未指定优先级,则将该模板视为优先级为 0(最低优先级)。此数字不是由 Elasticsearch 自动生成的。 -
version
(可选, 数字): 用于在外部管理索引模板的版本号。此数字不是由 Elasticsearch 自动生成的。 -
_meta
(可选, Record<string, 用户定义的值>): 关于索引模板的可选用户元数据。可以包含任何内容。此映射不是由 Elasticsearch 自动生成的。 -
allow_auto_create
(可选, 布尔值): 此设置会覆盖action.auto_create_index
集群设置的值。如果在一个模板中设置为true
,则即使通过actions.auto_create_index
禁用了索引的自动创建,也可以使用该模板自动创建索引。如果设置为false
,则与模板匹配的索引或数据流必须始终显式创建,并且永远不能自动创建。 -
ignore_missing_component_templates
(可选, string[]): 当索引模板引用可能不存在的组件模板时,可以使用配置选项 ignore_missing_component_templates -
deprecated
(可选, boolean): 将此索引模板标记为已弃用。当创建或更新使用已弃用组件的非已弃用索引模板时,Elasticsearch 将发出弃用警告。 -
create
(可选, 布尔值): 如果为true
,则此请求无法替换或更新现有索引模板。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
cause
(可选, 字符串): 用于创建/更新索引模板的用户定义原因
-
put_mapping
编辑更新字段映射。向现有数据流或索引添加新字段。您还可以使用此 API 更改现有字段的搜索设置。对于数据流,这些更改默认应用于所有后备索引。
client.indices.putMapping({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 应向其添加映射的索引名称列表(支持通配符);使用_all
或省略以在所有索引上添加映射。 -
date_detection
(可选, 布尔值): 控制是否启用动态日期检测。 -
dynamic
(可选, 枚举("strict" | "runtime" | true | false)): 控制是否动态添加新字段。 -
dynamic_date_formats
(可选, 字符串数组): 如果启用了日期检测,则将新字符串字段与 dynamic_date_formats 进行比较,如果值匹配,则添加新的日期字段而不是字符串。 -
dynamic_templates
(可选, Record<string, { mapping, runtime, match, path_match, unmatch, path_unmatch, match_mapping_type, unmatch_mapping_type, match_pattern }> | Record<string, { mapping, runtime, match, path_match, unmatch, path_unmatch, match_mapping_type, unmatch_mapping_type, match_pattern }>[]): 指定映射的动态模板。 -
_field_names
(可选, { enabled }): 控制是否为索引启用字段名称。 -
_meta
(可选, Record<string, 用户定义的值>): 映射类型可以具有与之关联的自定义元数据。这些元数据不会被 Elasticsearch 使用,但可以用来存储特定于应用程序的元数据。 -
numeric_detection
(可选, 布尔值): 自动将字符串映射为所有字段的数字数据类型。 -
properties
(可选, Record<string, { type } | { boost, fielddata, index, null_value, type } | { type, enabled, null_value, boost, coerce, script, on_script_error, ignore_malformed, time_series_metric, analyzer, eager_global_ordinals, index, index_options, index_phrases, index_prefixes, norms, position_increment_gap, search_analyzer, search_quote_analyzer, term_vector, format, precision_step, locale } | { relations, eager_global_ordinals, type } | { boost, eager_global_ordinals, index, index_options, script, on_script_error, normalizer, norms, null_value, similarity, split_queries_on_whitespace, time_series_dimension, type } | { type, fields, meta, copy_to } | { type } | { positive_score_impact, type } | { positive_score_impact, type } | { analyzer, index, index_options, max_shingle_size, norms, search_analyzer, search_quote_analyzer, similarity, term_vector, type } | { analyzer, boost, eager_global_ordinals, fielddata, fielddata_frequency_filter, index, index_options, index_phrases, index_prefixes, norms, position_increment_gap, search_analyzer, search_quote_analyzer, similarity, term_vector, type } | { type } | { type, null_value } | { boost, format, ignore_malformed, index, null_value, precision_step, type } | { boost, fielddata, format, ignore_malformed, index, null_value, precision_step, locale, type } | { type, default_metric, metrics, time_series_metric } | { type, element_type, dims, similarity, index, index_options } | { boost, depth_limit, doc_values, eager_global_ordinals, index, index_options, null_value, similarity, split_queries_on_whitespace, type } | { enabled, include_in_parent, include_in_root, type } | { enabled, subobjects, type } | { type, meta, inference_id } | { type } | { analyzer, contexts, max_input_length, preserve_position_increments, preserve_separators, search_analyzer, type } | { value, type } | { path, type } | { ignore_malformed, type } | { boost, index, ignore_malformed, null_value, on_script_error, script, time_series_dimension, type } | { type } | { analyzer, boost, index, null_value, enable_position_increments, type } | { ignore_malformed, ignore_z_value, null_value, index, on_script_error, script, type } | { coerce, ignore_malformed, ignore_z_value, orientation, strategy, type } | { ignore_malformed, ignore_z_value, null_value, type } | { coerce, ignore_malformed, ignore_z_value, orientation, type } | { type, null_value } | { type, null_value } | { type, null_value } | { type, null_value } | { type, null_value } | { type, null_value } | { type, null_value, scaling_factor } | { type, null_value } | { type, null_value } | { format, type } | { type } | { type } | { type } | { type } | { type } | { type, norms, index_options, index, null_value, rules, language, country, variant, strength, decomposition, alternate, case_level, case_first, numeric, variable_top, hiragana_quaternary_mode }>): 字段的映射。对于新字段,此映射可以包括- 字段名称
- 字段数据类型
- 映射参数
-
_routing
(可选, { required }): 启用对索引文档的要求路由值。 -
_source
(可选, { compress, compress_threshold, enabled, excludes, includes, mode }): 控制是否在索引上启用 _source 字段。 -
runtime
(可选, Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 索引的运行时字段映射。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
write_index_only
(可选, 布尔值): 如果为true
,则映射仅应用于目标的当前写入索引。
-
put_settings
编辑更新索引设置。实时更改动态索引设置。对于数据流,默认情况下索引设置更改会应用于所有后备索引。
client.indices.putSettings({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
settings
(可选, { index, mode, routing_path, soft_deletes, sort, number_of_shards, number_of_replicas, number_of_routing_shards, check_on_startup, codec, routing_partition_size, load_fixed_bitset_filters_eagerly, hidden, auto_expand_replicas, merge, search, refresh_interval, max_result_window, max_inner_result_window, max_rescore_window, max_docvalue_fields_search, max_script_fields, max_ngram_diff, max_shingle_diff, blocks, max_refresh_listeners, analyze, highlight, max_terms_count, max_regex_length, routing, gc_deletes, default_pipeline, final_pipeline, lifecycle, provided_name, creation_date, creation_date_string, uuid, version, verified_before_close, format, max_slices_per_scroll, translog, query_string, priority, top_metrics_max_size, analysis, settings, time_series, queries, similarity, mapping, indexing.slowlog, indexing_pressure, store }) -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
flat_settings
(可选,布尔值):如果true
,则以平面格式返回设置。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则以扁平格式返回设置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
preserve_existing
(可选, 布尔值): 如果为true
,则现有索引设置保持不变。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_template
编辑创建或更新索引模板。索引模板定义可以自动应用于新索引的设置、映射和别名。
client.indices.putTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 模板的名称 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>): 索引的别名。 -
index_patterns
(可选, 字符串 | 字符串数组): 用于在创建期间匹配索引名称的通配符表达式数组。 -
mappings
(可选, { all_field, date_detection, dynamic, dynamic_date_formats, dynamic_templates, _field_names, index_field, _meta, numeric_detection, properties, _routing, _size, _source, runtime, enabled, subobjects, _data_stream_timestamp }): 索引中字段的映射。 -
order
(可选, 数字): 如果索引匹配多个模板,则 Elasticsearch 应用此模板的顺序。
-
首先合并 order 值较低的模板。稍后合并 order 值较高的模板,覆盖值较低的模板。 settings
(可选, { index, mode, routing_path, soft_deletes, sort, number_of_shards, number_of_replicas, number_of_routing_shards, check_on_startup, codec, routing_partition_size, load_fixed_bitset_filters_eagerly, hidden, auto_expand_replicas, merge, search, refresh_interval, max_result_window, max_inner_result_window, max_rescore_window, max_docvalue_fields_search, max_script_fields, max_ngram_diff, max_shingle_diff, blocks, max_refresh_listeners, analyze, highlight, max_terms_count, max_regex_length, routing, gc_deletes, default_pipeline, final_pipeline, lifecycle, provided_name, creation_date, creation_date_string, uuid, version, verified_before_close, format, max_slices_per_scroll, translog, query_string, priority, top_metrics_max_size, analysis, settings, time_series, queries, similarity, mapping, indexing.slowlog, indexing_pressure, store }): 索引的配置选项。 version
(可选, 数字): 用于在外部管理索引模板的版本号。此数字不是由 Elasticsearch 自动生成的。 create
(可选, 布尔值): 如果为 true,则此请求无法替换或更新现有索引模板。 master_timeout
(可选, 字符串 | -1 | 0): 等待连接到主节点的时间段。如果在超时时间到期之前未收到任何响应,则请求将失败并返回错误。* *cause
(可选, 字符串)
recovery
编辑返回有关一个或多个索引的正在进行和已完成的分片恢复的信息。对于数据流,该 API 返回有关该流的后备索引的信息。
client.indices.recovery({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
active_only
(可选,布尔值):如果为true
,则响应仅包括正在进行的分片恢复。 -
detailed
(可选,布尔值):如果为true
,则响应包括有关分片恢复的详细信息。
-
refresh
编辑刷新索引。刷新操作使对一个或多个索引执行的最近操作可用于搜索。对于数据流,API 在流的后备索引上运行刷新操作。
client.indices.refresh({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。
-
reload_search_analyzers
编辑重新加载索引的搜索分析器及其资源。
client.indices.reloadSearchAnalyzers({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 要重新加载分析器的索引名称列表 -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略
-
resolve_cluster
编辑解析指定的索引表达式以返回有关每个集群的信息,包括本地集群(如果包含)。支持多个模式和远程集群。
client.indices.resolveCluster({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串数组):要解析的索引、别名和数据流的逗号分隔的名称或索引模式。可以使用<cluster>
:<name>
语法指定远程集群上的资源。 -
allow_no_indices
(可选, 布尔值): 如果为 false,则当任何通配符表达式、索引别名或 _all 值仅指向丢失或关闭的索引时,请求将返回错误。即使请求指向其他打开的索引,此行为也适用。例如,如果一个索引以 foo 开头,但没有索引以 bar 开头,则指向 foo*,bar* 的请求会返回错误。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_throttled
(可选, 布尔值):如果为 true,则在冻结时忽略具体的、展开的或别名的索引。默认为 false。 -
ignore_unavailable
(可选, 布尔值):如果为 false,则当请求的目标是缺失或关闭的索引时,将返回错误。默认为 false。
-
resolve_index
编辑解析索引。解析索引、别名和数据流的名称和/或索引模式。支持多个模式和远程集群。
client.indices.resolveIndex({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串数组):要解析的索引、别名和数据流的逗号分隔的名称或索引模式。可以使用<cluster>
:<name>
语法指定远程集群上的资源。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则当任何通配符表达式、索引别名或_all
值仅针对缺失或关闭的索引时,请求会返回错误。即使请求针对其他打开的索引,此行为也适用。例如,如果一个索引以foo
开头,但没有索引以bar
开头,则针对foo*,bar*
的请求将返回错误。
-
rollover
编辑滚动到新的索引。为数据流或索引别名创建新的索引。
client.indices.rollover({ alias })
参数
编辑-
请求 (对象)
-
alias
(字符串):要滚动的数据流或索引别名的名称。 -
new_index
(可选, 字符串):要创建的索引的名称。支持日期数学。数据流不支持此参数。 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>):目标索引的别名。数据流不支持此参数。 -
conditions
(可选, { min_age, max_age, max_age_millis, min_docs, max_docs, max_size, max_size_bytes, min_size, min_size_bytes, max_primary_shard_size, max_primary_shard_size_bytes, min_primary_shard_size, min_primary_shard_size_bytes, max_primary_shard_docs, min_primary_shard_docs }):滚动的条件。如果指定,则仅当当前索引满足这些条件时,Elasticsearch 才会执行滚动。如果未指定此参数,则 Elasticsearch 将无条件执行滚动。如果指定了条件,则至少其中一个条件必须是max_*
条件。如果满足任何max_*
条件且满足所有min_*
条件,则索引将滚动。 -
mappings
(可选, { all_field, date_detection, dynamic, dynamic_date_formats, dynamic_templates, _field_names, index_field, _meta, numeric_detection, properties, _routing, _size, _source, runtime, enabled, subobjects, _data_stream_timestamp }):索引中字段的映射。如果指定,则此映射可以包含字段名称、字段数据类型和映射参数。 -
settings
(可选, Record<string, 用户定义的值>):索引的配置选项。数据流不支持此参数。 -
dry_run
(可选, 布尔值):如果为true
,则检查当前索引是否满足指定的条件,但不执行滚动。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
segments
编辑返回有关索引分片中 Lucene 段的底层信息。对于数据流,该 API 返回有关流的支持索引的信息。
client.indices.segments({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 用于限制请求的数据流、索引和别名列表。支持通配符 (*
)。要定位所有数据流和索引,请省略此参数或使用*
或_all
。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
verbose
(可选, 布尔值):如果为true
,则请求返回详细的响应。
-
shard_stores
编辑检索有关一个或多个索引中副本分片的存储信息。对于数据流,该 API 检索流的支持索引的存储信息。
client.indices.shardStores({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组):用于限制请求的数据流、索引和别名的列表。 -
allow_no_indices
(可选, 布尔值):如果为 false,则当任何通配符表达式、索引别名或 _all 值仅针对缺失或关闭的索引时,该请求将返回错误。即使请求的目标是其他打开的索引,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):通配符模式可以匹配的索引类型。如果请求可以定位数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。 -
ignore_unavailable
(可选, 布尔值): 如果为 true,则响应中不包含丢失或关闭的索引。 -
status
(可选, 枚举("green" | "yellow" | "red" | "all") | 枚举("green" | "yellow" | "red" | "all")[]):用于限制请求的分片健康状态列表。
-
shrink
编辑将现有索引收缩为具有更少主分片的新索引。
client.indices.shrink({ index, target })
参数
编辑-
请求 (对象)
-
index
(字符串):要收缩的源索引的名称。 -
target
(字符串): 要创建的目标索引的名称。 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>):键是别名名称。索引别名名称支持日期数学。 -
settings
(可选, Record<string, 用户定义的值>): 目标索引的配置选项。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
simulate_index_template
编辑模拟索引。返回将从现有索引模板应用于指定索引的索引配置。
client.indices.simulateIndexTemplate({ name })
参数
编辑-
请求 (对象)
-
name
(字符串):要模拟的索引的名称 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
include_defaults
(可选, 布尔值): 如果为 true,则返回索引模板的所有相关默认配置。
-
simulate_template
编辑模拟索引模板。返回将由特定索引模板应用的索引配置。
client.indices.simulateTemplate({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串):要模拟的索引模板的名称。要在将模板配置添加到集群之前对其进行测试,请省略此参数并在请求正文中指定模板配置。 -
allow_auto_create
(可选, 布尔值): 此设置会覆盖action.auto_create_index
集群设置的值。如果在一个模板中设置为true
,则即使通过actions.auto_create_index
禁用了索引的自动创建,也可以使用该模板自动创建索引。如果设置为false
,则与模板匹配的索引或数据流必须始终显式创建,并且永远不能自动创建。 -
index_patterns
(可选, 字符串 | 字符串数组):用于在创建期间匹配数据流和索引名称的通配符 (*
) 表达式数组。 -
composed_of
(可选, 字符串数组): 组件模板名称的有序列表。组件模板按照指定的顺序合并,这意味着最后一个指定的组件模板具有最高优先级。 -
template
(可选, { aliases, mappings, settings, lifecycle }): 要应用的模板。它可以选择性地包含aliases
、mappings
或settings
配置。 -
data_stream
(可选, { hidden, allow_custom_routing }): 如果包含此对象,则该模板用于创建数据流及其后备索引。支持空对象。数据流需要一个带有data_stream
对象的匹配索引模板。 -
priority
(可选, 数字): 用于确定在创建新的数据流或索引时索引模板优先级的优先级。选择具有最高优先级的索引模板。如果未指定优先级,则将该模板视为优先级为 0(最低优先级)。此数字不是由 Elasticsearch 自动生成的。 -
version
(可选, 数字): 用于在外部管理索引模板的版本号。此数字不是由 Elasticsearch 自动生成的。 -
_meta
(可选, Record<string, 用户定义的值>): 关于索引模板的可选用户元数据。可以包含任何内容。此映射不是由 Elasticsearch 自动生成的。 -
ignore_missing_component_templates
(可选, string[]): 当索引模板引用可能不存在的组件模板时,可以使用配置选项 ignore_missing_component_templates -
deprecated
(可选, boolean): 将此索引模板标记为已弃用。当创建或更新使用已弃用组件的非已弃用索引模板时,Elasticsearch 将发出弃用警告。 -
create
(可选, 布尔值):如果为 true,则仅当没有现有模板与相同的索引模式匹配时,才使用正文中传递的模板。如果为 false,则模拟将使用具有最高优先级的模板。请注意,在任何一种情况下,都不会永久添加或更新模板;它仅用于模拟。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
include_defaults
(可选, 布尔值): 如果为 true,则返回索引模板的所有相关默认配置。
-
split
编辑将现有索引拆分为具有更多主分片的新索引。
client.indices.split({ index, target })
参数
编辑-
请求 (对象)
-
index
(字符串):要拆分的源索引的名称。 -
target
(字符串): 要创建的目标索引的名称。 -
aliases
(可选, Record<string, { filter, index_routing, is_hidden, is_write_index, routing, search_routing }>): 结果索引的别名。 -
settings
(可选, Record<string, 用户定义的值>): 目标索引的配置选项。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 数字 | 枚举("all" | "index-setting")): 在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,直到索引中的分片总数 (number_of_replicas+1
)。
-
stats
编辑返回一个或多个索引的统计信息。对于数据流,该 API 检索流的支持索引的统计信息。
client.indices.stats({ ... })
参数
编辑-
请求 (对象)
-
metric
(可选, 字符串 | 字符串数组):限制返回特定指标的信息。 -
index
(可选, string | string[]): 索引名称列表;使用_all
或空字符串对所有索引执行操作 -
completion_fields
(可选, 字符串 | 字符串数组):要包含在 fielddata 和 suggest 统计信息中的字段列表或通配符表达式。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。 -
fielddata_fields
(可选, 字符串 | 字符串数组):要包含在 fielddata 统计信息中的字段列表或通配符表达式。 -
fields
(可选,字符串 | 字符串[]): 要包含在统计信息中的字段的列表或通配符表达式。 -
forbid_closed_indices
(可选, 布尔值):如果为 true,则不从关闭的索引中收集统计信息。 -
groups
(可选, 字符串 | 字符串数组):要包含在搜索统计信息中的搜索组列表。 -
include_segment_file_sizes
(可选, 布尔值):如果为 true,则该调用会报告每个 Lucene 索引文件的聚合磁盘使用情况(仅当请求段统计信息时适用)。 -
include_unloaded_segments
(可选, 布尔值): 如果为 true,则响应包括来自未加载到内存中的段的信息。 -
level
(可选, 枚举("cluster" | "indices" | "shards")):指示统计信息是在集群级别、索引级别还是分片级别聚合。
-
unfreeze
编辑解冻索引。
client.indices.unfreeze({ index })
参数
编辑-
请求 (对象)
-
index
(字符串):索引的标识符。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_active_shards
(可选, 字符串):在继续操作之前必须处于活动状态的分片副本数。设置为all
或任何正整数,最大为索引中的分片总数(number_of_replicas+1
)。
-
update_aliases
编辑创建或更新别名。向别名添加数据流或索引。
client.indices.updateAliases({ ... })
参数
编辑-
请求 (对象)
-
actions
(可选, { add_backing_index, remove_backing_index }[]):要执行的操作。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
validate_query
编辑验证查询。验证查询而不运行它。
client.indices.validateQuery({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组):要搜索的数据流、索引和别名的列表。支持通配符 (*
)。要搜索所有数据流或索引,请省略此参数或使用*
或_all
。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):Lucene 查询字符串语法中的查询。 -
allow_no_indices
(可选, 布尔值): 如果为false
,则如果任何通配符表达式、索引别名或_all
值仅以丢失或关闭的索引为目标,则请求会返回错误。即使请求以其他打开的索引为目标,此行为也适用。 -
all_shards
(可选, 布尔值):如果为true
,则验证将在所有分片上执行,而不是每个索引一个随机分片。 -
analyzer
(可选, 字符串): 用于查询字符串的分析器。仅当指定了q
查询字符串参数时,才能使用此参数。 -
analyze_wildcard
(可选, 布尔值): 如果为true
,则会分析通配符和前缀查询。 -
default_operator
(可选, 枚举("and" | "or")): 查询字符串查询的默认运算符:AND
或OR
。 -
df
(可选, 字符串): 在查询字符串中未提供字段前缀时用作默认值的字段。仅当指定了q
查询字符串参数时,才能使用此参数。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以针对数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表,例如open,hidden
。有效值包括:all
、open
、closed
、hidden
、none
。 -
explain
(可选, 布尔值):如果为true
,则如果发生错误,响应将返回详细信息。 -
ignore_unavailable
(可选, 布尔值): 如果为false
,则如果请求以丢失或关闭的索引为目标,则会返回错误。 -
lenient
(可选, 布尔值): 如果为true
,则将忽略查询字符串中基于格式的查询失败(例如,向数字字段提供文本)。 -
rewrite
(可选, 布尔值):如果为true
,则返回更详细的说明,显示将要执行的实际 Lucene 查询。 -
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。
-
inference
编辑delete
编辑删除推理端点
client.inference.delete({ inference_id })
参数
编辑-
请求 (对象)
-
inference_id
(字符串):推理 ID -
task_type
(可选, 枚举("sparse_embedding" | "text_embedding" | "rerank" | "completion")):任务类型 -
dry_run
(可选, 布尔值):为 true 时,不会删除端点,并返回引用此端点的提取处理器列表 -
force
(可选, 布尔值):为 true 时,即使提取处理器或语义文本字段仍在引用推理端点,也会强制删除它
-
get
编辑获取推理端点
client.inference.get({ ... })
参数
编辑-
请求 (对象)
-
task_type
(可选, 枚举("sparse_embedding" | "text_embedding" | "rerank" | "completion")):任务类型 -
inference_id
(可选, 字符串): 推理 ID
-
推理
编辑在服务上执行推理
client.inference.inference({ inference_id, input })
参数
编辑-
请求 (对象)
-
inference_id
(字符串):推理 ID -
input
(字符串 | 字符串数组): 推理输入。可以是字符串或字符串数组。 -
task_type
(可选, 枚举("sparse_embedding" | "text_embedding" | "rerank" | "completion")):任务类型 -
query
(可选, 字符串): 查询输入,用于重排序任务。其他任务不需要。 -
task_settings
(可选, 用户定义的值): 可选的任务设置 -
timeout
(可选, 字符串 | -1 | 0): 指定等待推理请求完成的时间。
-
put
编辑创建推理端点
client.inference.put({ inference_id })
参数
编辑-
请求 (对象)
-
inference_id
(字符串):推理 ID -
task_type
(可选, 枚举("sparse_embedding" | "text_embedding" | "rerank" | "completion")):任务类型 -
inference_config
(可选, { service, service_settings, task_settings })
-
stream_inference
编辑执行流式推理
client.inference.streamInference()
ingest
编辑删除 GeoIP 数据库
编辑删除 GeoIP 数据库配置。删除一个或多个 IP 地理位置数据库配置。
client.ingest.deleteGeoipDatabase({ id })
参数
编辑-
请求 (对象)
-
id
(字符串 | 字符串数组): 要删除的 geoip 数据库配置列表 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
删除 IP 位置数据库
编辑删除 IP 位置数据库配置
client.ingest.deleteIpLocationDatabase()
删除管道
编辑删除管道。删除一个或多个摄取管道。
client.ingest.deletePipeline({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 用于限制请求的管道 ID 或管道 ID 的通配符表达式。要删除集群中的所有摄取管道,请使用值*
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
geo_ip_stats
编辑获取 GeoIP 统计信息。获取用于 GeoIP 处理器的 GeoIP2 数据库的下载统计信息。
client.ingest.geoIpStats()
获取 GeoIP 数据库
编辑获取 GeoIP 数据库配置。获取关于一个或多个 IP 地理位置数据库配置的信息。
client.ingest.getGeoipDatabase({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串 | 字符串数组): 要检索的数据库配置 ID 列表。支持通配符 (*
) 表达式。要获取所有数据库配置,请省略此参数或使用*
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
获取 IP 位置数据库
编辑返回指定的 IP 位置数据库配置
client.ingest.getIpLocationDatabase()
获取管道
编辑获取管道。获取关于一个或多个摄取管道的信息。此 API 返回管道的本地引用。
client.ingest.getPipeline({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 要检索的管道 ID 列表。支持通配符 (*
) 表达式。要获取所有摄取管道,请省略此参数或使用*
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
summary
(可选, 布尔值): 返回不带定义的管道(默认值:false)
-
processor_grok
编辑运行 grok 处理器。从文档中的单个文本字段中提取结构化字段。您必须选择要从中提取匹配字段的字段,以及您期望匹配的 grok 模式。grok 模式类似于正则表达式,它支持可以重用的别名表达式。
client.ingest.processorGrok()
put_geoip_database
编辑创建或更新 GeoIP 数据库配置。创建或更新 IP 地理位置数据库配置。
client.ingest.putGeoipDatabase({ id, name, maxmind })
参数
编辑-
请求 (对象)
-
id
(字符串): 要创建或更新的数据库配置的 ID。 -
name
(字符串): 要下载的 IP 地理位置数据库的提供商分配的名称。 -
maxmind
({ account_id }): 识别要使用哪个 IP 地理位置提供商下载数据库所需的配置,以及下载所需的任何提供商特定配置。目前,唯一支持的提供商是 maxmind,maxmind 提供商要求配置 account_id(字符串)。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_ip_location_database
编辑放置要下载的 IP 位置数据库的配置
client.ingest.putIpLocationDatabase()
put_pipeline
编辑创建或更新管道。使用此 API 所做的更改会立即生效。
client.ingest.putPipeline({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 要创建或更新的摄取管道的 ID。 -
_meta
(可选, Record<string, 用户定义的值>): 关于摄取管道的可选元数据。可以包含任何内容。此映射不是由 Elasticsearch 自动生成的。 -
description
(可选, 字符串): 摄取管道的描述。 -
on_failure
(可选, { append, attachment, bytes, circle, community_id, convert, csv, date, date_index_name, dissect, dot_expander, drop, enrich, fail, fingerprint, foreach, ip_location, geo_grid, geoip, grok, gsub, html_strip, inference, join, json, kv, lowercase, network_direction, pipeline, redact, registered_domain, remove, rename, reroute, script, set, set_security_user, sort, split, terminate, trim, uppercase, urldecode, uri_parts, user_agent }[]): 在处理器失败后立即运行的处理器。每个处理器都支持处理器级别的on_failure
值。如果没有on_failure
值的处理器失败,Elasticsearch 会使用此管道级别参数作为回退。此参数中的处理器会按照指定的顺序依次运行。Elasticsearch 不会尝试运行管道的剩余处理器。 -
processors
(可选, { append, attachment, bytes, circle, community_id, convert, csv, date, date_index_name, dissect, dot_expander, drop, enrich, fail, fingerprint, foreach, ip_location, geo_grid, geoip, grok, gsub, html_strip, inference, join, json, kv, lowercase, network_direction, pipeline, redact, registered_domain, remove, rename, reroute, script, set, set_security_user, sort, split, terminate, trim, uppercase, urldecode, uri_parts, user_agent }[]): 用于在索引之前对文档执行转换的处理器。处理器会按照指定的顺序依次运行。 -
version
(可选, 数字): 外部系统用于跟踪摄取管道的版本号。此参数仅用于外部系统。Elasticsearch 不使用或验证管道版本号。 -
deprecated
(可选, 布尔值): 将此摄取管道标记为已弃用。当在创建或更新非已弃用的索引模板时,引用已弃用的摄取管道作为默认或最终管道时,Elasticsearch 会发出弃用警告。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
if_version
(可选, 数字): 管道更新的乐观并发控制所需的版本
-
模拟
编辑模拟管道。针对一组提供的文档运行摄取管道。您可以指定要与提供的文档一起使用的现有管道,也可以在请求正文中提供管道定义。
client.ingest.simulate({ docs })
参数
编辑-
请求 (对象)
-
docs
({ _id, _index, _source }[]): 要在管道中测试的示例文档。 -
id
(可选, 字符串): 要测试的管道。如果您未在请求正文中指定pipeline
,则此参数为必需。 -
pipeline
(可选, { description, on_failure, processors, version, deprecated, _meta }): 要测试的管道。如果您未指定pipeline
请求路径参数,则此参数为必需。如果您同时指定了此参数和请求路径参数,则 API 仅使用请求路径参数。 -
verbose
(可选, 布尔值): 如果true
,则响应包括执行的管道中每个处理器的输出数据。
-
许可
编辑删除
编辑删除集群的许可信息
client.license.delete()
获取
编辑获取许可信息。返回有关您的 Elastic 许可的信息,包括其类型、状态、签发时间和到期时间。有关不同类型许可的更多信息,请参阅[Elastic Stack 订阅](https://elastic.ac.cn/subscriptions)。
client.license.get({ ... })
参数
编辑-
请求 (对象)
-
accept_enterprise
(可选, 布尔值): 如果true
,则此参数为企业许可类型返回企业。如果false
,则此参数为铂金和企业许可类型都返回铂金。此行为是为了保持向后兼容性。此参数已弃用,将在 8.x 中始终设置为 true。 -
local
(可选, 布尔值): 指定是否检索本地信息。默认值为false
,表示信息是从主节点检索的。
-
get_basic_status
编辑检索有关基本许可状态的信息。
client.license.getBasicStatus()
get_trial_status
编辑检索有关试用许可状态的信息。
client.license.getTrialStatus()
post
编辑更新集群的许可。
client.license.post({ ... })
参数
编辑-
请求 (对象)
-
license
(可选, { expiry_date_in_millis, issue_date_in_millis, start_date_in_millis, issued_to, issuer, max_nodes, max_resource_units, signature, type, uid }) -
licenses
(可选, { expiry_date_in_millis, issue_date_in_millis, start_date_in_millis, issued_to, issuer, max_nodes, max_resource_units, signature, type, uid }[]): 包含许可信息的一个或多个 JSON 文档的序列。 -
acknowledge
(可选, 布尔值): 指定是否确认许可更改。
-
post_start_basic
编辑start basic API 使您能够启动无限期基本许可,该许可可以访问所有基本功能。但是,如果基本许可不支持当前许可可用的所有功能,则会在响应中通知您。然后,您必须将 acknowledge 参数设置为 true 重新提交 API 请求。要检查基本许可的状态,请使用以下 API:[获取基本状态](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/get-basic-status.html)。
client.license.postStartBasic({ ... })
参数
编辑-
请求 (对象)
-
acknowledge
(可选,布尔值):用户是否已确认确认消息(默认值:false)
-
post_start_trial
编辑启动试用 API 使您可以启动 30 天的试用期,在此期间可以访问所有订阅功能。
client.license.postStartTrial({ ... })
参数
编辑-
请求 (对象)
-
acknowledge
(可选,布尔值):用户是否已确认确认消息(默认值:false) -
type_query_string
(可选,字符串)
-
logstash
编辑delete_pipeline
编辑删除用于 Logstash 中央管理的管道。
client.logstash.deletePipeline({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):管道的标识符。
-
get_pipeline
编辑检索用于 Logstash 中央管理的管道。
client.logstash.getPipeline({ ... })
参数
编辑-
请求 (对象)
-
id
(可选,字符串 | 字符串数组):管道标识符列表。
-
put_pipeline
编辑创建或更新用于 Logstash 中央管理的管道。
client.logstash.putPipeline({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):管道的标识符。 -
pipeline
(可选,{ description, on_failure, processors, version, deprecated, _meta })
-
迁移
编辑弃用
编辑检索有关不同集群、节点和索引级别设置的信息,这些设置使用了将在下一个主要版本中删除或更改的已弃用功能。
client.migration.deprecations({ ... })
参数
编辑-
请求 (对象)
-
index
(可选,字符串):要检查的数据流或索引的逗号分隔列表。支持通配符 (*) 表达式。
-
get_feature_upgrade_status
编辑查找系统功能是否需要升级
client.migration.getFeatureUpgradeStatus()
post_feature_upgrade
编辑开始升级系统功能
client.migration.postFeatureUpgrade()
ml
编辑clear_trained_model_deployment_cache
编辑清除已训练模型的部署缓存。将在分配了已训练模型的所有节点上清除缓存。已训练模型的部署可能启用了推理缓存。由于每个分配的节点都会处理请求,因此它们的响应可能会缓存在该单独的节点上。调用此 API 会清除缓存,而无需重新启动部署。
client.ml.clearTrainedModelDeploymentCache({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。
-
close_job
编辑关闭异常检测作业。作业在其生命周期中可以多次打开和关闭。关闭的作业无法接收数据或执行分析操作,但您仍然可以浏览和导航结果。关闭作业时,它会运行整理任务,例如修剪模型历史记录、刷新缓冲区、计算最终结果并持久化模型快照。根据作业的大小,关闭可能需要几分钟,重新打开也需要相同的时间。关闭后,作业对集群的开销很小,除了维护其元数据。因此,最佳实践是关闭不再需要处理数据的作业。如果您关闭数据馈送正在运行的异常检测作业,则请求首先尝试停止数据馈送。此行为等效于使用与关闭作业请求相同的超时和强制参数调用停止数据馈送 API。当指定了结束日期的数据馈送停止时,它会自动关闭其关联的作业。
client.ml.closeJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。它可以是作业标识符、组名或通配符表达式。您可以通过使用组名、作业列表或通配符表达式,在单个 API 请求中关闭多个异常检测作业。您可以使用_all
或将*
指定为作业标识符来关闭所有作业。 -
allow_no_match
(可选,布尔值):请参阅allow_no_match
查询参数的描述。 -
force
(可选,布尔值):请参阅force
查询参数的描述。 -
timeout
(可选,字符串 | -1 | 0):请参阅timeout
查询参数的描述。
-
delete_calendar
编辑删除日历。从日历中删除所有计划事件,然后删除它。
client.ml.deleteCalendar({ calendar_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。
-
delete_calendar_event
编辑从日历中删除事件。
client.ml.deleteCalendarEvent({ calendar_id, event_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。 -
event_id
(字符串):计划事件的标识符。您可以使用获取日历事件 API 获取此标识符。
-
delete_calendar_job
编辑从日历中删除异常作业。
client.ml.deleteCalendarJob({ calendar_id, job_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。 -
job_id
(字符串 | 字符串数组):异常检测作业的标识符。它可以是作业标识符、组名或作业或组的列表。
-
delete_data_frame_analytics
编辑删除数据帧分析作业。
client.ml.deleteDataFrameAnalytics({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):数据帧分析作业的标识符。 -
force
(可选,布尔值):如果true
,则删除未停止的作业;此方法比停止和删除作业更快。 -
timeout
(可选,字符串 | -1 | 0):等待作业删除的时间。
-
delete_datafeed
编辑删除数据馈送。
client.ml.deleteDatafeed({ datafeed_id })
参数
编辑-
请求 (对象)
-
datafeed_id
(字符串):唯一标识数据馈送的数字字符串。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
force
(可选,布尔值):用于强制删除已启动的数据馈送;此方法比停止和删除数据馈送更快。
-
delete_expired_data
编辑删除过期的 ML 数据。删除所有已超过保留天数期限的作业结果、模型快照和预测数据。还会删除与任何作业无关的机器学习状态文档。您可以通过使用作业标识符、组名、作业的逗号分隔列表或通配符表达式,将请求限制为单个或一组异常检测作业。您可以使用 _all、将 * 指定为 <job_id> 或省略 <job_id> 来删除所有异常检测作业的过期数据。
client.ml.deleteExpiredData({ ... })
参数
编辑-
请求 (对象)
-
job_id
(可选,字符串):异常检测作业的标识符。它可以是作业标识符、组名或通配符表达式。 -
requests_per_second
(可选,浮点数):删除过程所需的每秒请求数。默认行为是不进行节流。 -
timeout
(可选,字符串 | -1 | 0):在取消底层删除过程之前,它们可以运行多长时间。
-
delete_filter
编辑删除过滤器。如果异常检测作业引用该过滤器,则无法删除该过滤器。您必须先更新或删除作业,然后才能删除过滤器。
client.ml.deleteFilter({ filter_id })
参数
编辑-
请求 (对象)
-
filter_id
(字符串):唯一标识过滤器的字符串。
-
delete_forecast
编辑从作业中删除预测。默认情况下,预测保留 14 天。您可以使用预测作业 API 中的 expires_in
参数指定不同的保留期限。删除预测 API 使您可以在预测过期之前删除一个或多个预测。
client.ml.deleteForecast({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
forecast_id
(可选,字符串):预测标识符列表。如果您未指定此可选参数,或者如果您指定_all
或*
,则 API 将删除作业中的所有预测。 -
allow_no_forecasts
(可选,布尔值):指定在没有预测时是否发生错误。特别是,如果此参数设置为false
并且没有与作业关联的预测,则尝试删除所有预测将返回错误。 -
timeout
(可选,字符串 | -1 | 0):指定等待删除操作完成的时间段。当此时间段过去后,API 将失败并返回错误。
-
delete_job
编辑删除异常检测作业。删除所有作业配置、模型状态和结果。目前无法使用通配符或逗号分隔列表删除多个作业。如果您删除具有数据馈送的作业,则请求首先尝试删除数据馈送。此行为等效于使用与删除作业请求相同的超时和强制参数调用删除数据馈送 API。
client.ml.deleteJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
force
(可选,布尔值):用于强制删除已打开的作业;此方法比关闭和删除作业更快。 -
delete_user_annotations
(可选,布尔值):指定在重置作业时,是否应删除用户添加的注释以及任何自动生成的注释。 -
wait_for_completion
(可选,布尔值):指定请求应立即返回还是等待直到作业删除完成。
-
delete_model_snapshot
编辑删除模型快照。您无法删除活动模型快照。要删除该快照,请首先还原到不同的快照。要识别活动模型快照,请参阅从 get jobs API 获得的结果中的 model_snapshot_id
。
client.ml.deleteModelSnapshot({ job_id, snapshot_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(字符串):模型快照的标识符。
-
delete_trained_model
编辑删除未引用的已训练模型。请求会删除未被引入管道引用的已训练推理模型。
client.ml.deleteTrainedModel({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
force
(可选,布尔值):强制删除被摄取管道引用的或已启动部署的已训练模型。
-
delete_trained_model_alias
编辑删除已训练的模型别名。此 API 删除引用已训练模型的现有模型别名。如果模型别名缺失或引用的模型不是由 model_id
标识的模型,则此 API 返回错误。
client.ml.deleteTrainedModelAlias({ model_alias, model_id })
参数
编辑-
请求 (对象)
-
model_alias
(字符串):要删除的模型别名。 -
model_id
(字符串):模型别名引用的已训练模型 ID。
-
estimate_model_memory
编辑估计作业模型内存使用量。估计异常检测作业模型的内存使用量。它基于作业的分析配置详细信息以及它引用的字段的基数估计。
client.ml.estimateModelMemory({ ... })
参数
编辑-
请求 (对象)
-
analysis_config
(可选,{ bucket_span, categorization_analyzer, categorization_field_name, categorization_filters, detectors, influencers, latency, model_prune_window, multivariate_by_fields, per_partition_categorization, summary_count_field_name }):有关可以在此 API 的正文的analysis_config
组件中指定的属性的列表。 -
max_bucket_cardinality
(可选,Record<字符串, 数字>):作业分析数据的时间段内,为影响因素字段观察到的单个存储桶中的最高基数的估计值。为了产生良好的答案,必须为所有影响因素字段提供值。为未列为influencers
的字段提供值对估计没有影响。 -
overall_cardinality
(可选,Record<字符串, 数字>):作业分析数据的整个时间段内,为字段观察到的基数的估计值。为了产生良好的答案,必须为任何检测器的by_field_name
、over_field_name
和partition_field_name
中引用的字段提供值。为其他字段提供值对估计没有影响。如果没有任何检测器具有by_field_name
、over_field_name
或partition_field_name
,则可以从请求中省略它。
-
evaluate_data_frame
编辑评估数据框分析。此 API 将各种类型机器学习功能的常用评估指标打包在一起。它旨在用于由数据框分析创建的索引。评估需要存在真实的字段和分析结果字段。
client.ml.evaluateDataFrame({ evaluation, index })
参数
编辑-
请求 (对象)
-
evaluation
({ classification, outlier_detection, regression }):定义要执行的评估类型。 -
index
(字符串):定义将在其中执行评估的index
。 -
query
(可选,{ bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):一个查询子句,用于从源索引检索数据子集。
-
explain_data_frame_analytics
编辑解释数据框分析配置。此 API 为已存在或尚未创建的数据框分析配置提供解释。提供以下解释:*哪些字段包含在分析中,哪些字段未包含,以及原因;*估计需要多少内存。在稍后决定 model_memory_limit 设置的适当值时可以使用此估计值。如果有对象字段或通过源筛选排除的字段,则它们不会包含在解释中。
client.ml.explainDataFrameAnalytics({ ... })
参数
编辑-
请求 (对象)
-
id
(可选,字符串):数据框分析作业的标识符。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
source
(可选,{ index, query, runtime_mappings, _source }):有关如何获取分析数据的配置。它需要一个索引。可以选择指定 query 和 _source。 -
dest
(可选,{ index, results_field }):目标配置,包括索引和可选的 results_field(默认为 ml)。 -
analysis
(可选,{ classification, outlier_detection, regression }):分析配置,其中包含执行以下类型分析之一所需的信息:分类、异常检测或回归。 -
description
(可选,字符串):作业的描述。 -
model_memory_limit
(可选,字符串):允许用于分析处理的近似最大内存资源量。如果您的elasticsearch.yml
文件包含xpack.ml.max_model_memory_limit
设置,则当您尝试创建model_memory_limit
值大于该设置的数据框分析作业时,会发生错误。 -
max_num_threads
(可选,数字):分析要使用的最大线程数。使用更多线程可能会减少完成分析所需的时间,但代价是使用更多的 CPU。请注意,该进程可能会为除分析本身之外的操作功能使用其他线程。 -
analyzed_fields
(可选,{ includes, excludes }):指定 includes 和/或 excludes 模式,以选择将哪些字段包含在分析中。最后应用 excludes 中指定的模式,因此 excludes 优先。换句话说,如果在 includes 和 excludes 中指定了相同的字段,则该字段将不会包含在分析中。 -
allow_lazy_start
(可选,布尔值):指定当没有足够的机器学习节点容量使其能够立即分配到节点时,此作业是否可以启动。
-
flush_job
编辑强制处理缓冲的数据。仅当使用 post data API 发送数据进行分析时,flush jobs API 才适用。根据缓冲区的内容,它可能还会计算新的结果。刷新和关闭操作类似,但是如果您希望发送更多数据进行分析,则刷新更有效率。刷新时,作业保持打开状态,并且可以继续分析数据。关闭操作还会将模型状态修剪并持久化到磁盘,并且必须再次打开作业才能分析更多数据。
client.ml.flushJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
advance_time
(可选,字符串 | 单位):请参阅advance_time
查询参数的描述。 -
calc_interim
(可选,布尔值):请参阅calc_interim
查询参数的描述。 -
end
(可选,字符串 | 单位):请参阅end
查询参数的描述。 -
skip_time
(可选,字符串 | 单位):请参阅skip_time
查询参数的描述。 -
start
(可选,字符串 | 单位):请参阅start
查询参数的描述。
-
forecast
编辑预测时间序列的未来行为。
不支持对执行总体分析的作业进行预测;如果您尝试为在其配置中具有 over_field_name
的作业创建预测,则会发生错误。预测根据历史数据预测未来行为。
client.ml.forecast({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。创建预测时,作业必须处于打开状态;否则会发生错误。 -
duration
(可选,字符串 | -1 | 0):请参阅duration
查询参数的描述。 -
expires_in
(可选,字符串 | -1 | 0):请参阅expires_in
查询参数的描述。 -
max_model_memory
(可选,字符串):请参阅max_model_memory
查询参数的描述。
-
get_buckets
编辑获取存储桶的异常检测作业结果。API 以时间顺序呈现按存储桶分组的记录视图。
client.ml.getBuckets({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
timestamp
(可选,字符串 | 单位):单个存储桶结果的时间戳。如果未指定此参数,则 API 返回有关所有存储桶的信息。 -
anomaly_score
(可选,数字):请参阅anomaly_score
查询参数的描述。 -
desc
(可选,布尔值):请参阅desc
查询参数的描述。 -
end
(可选,字符串 | 单位):请参阅end
查询参数的描述。 -
exclude_interim
(可选,布尔值):请参阅exclude_interim
查询参数的描述。 -
expand
(可选,布尔值):请参阅expand
查询参数的描述。 -
page
(可选,{ from, size }) -
sort
(可选,字符串):请参阅sort
查询参数的描述。 -
start
(可选,字符串 | 单位):请参阅start
查询参数的描述。 -
from
(可选,数字):跳过指定数量的存储桶。 -
size
(可选,数字):指定要获取的最大存储桶数。
-
get_calendar_events
编辑获取日历中有关事件的信息。
client.ml.getCalendarEvents({ calendar_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串): 唯一标识日历的字符串。你可以通过使用 ID 列表或通配符表达式来获取多个日历的信息。你可以通过使用_all
或*
或者省略日历标识符来获取所有日历的信息。 -
end
(可选, 字符串 | 单位): 指定获取时间戳早于此时间的事件。 -
from
(可选, 数字): 跳过指定数量的事件。 -
job_id
(可选, 字符串): 指定获取特定异常检测作业标识符或作业组的事件。它必须与日历标识符_all
或*
一起使用。 -
size
(可选, 数字): 指定要获取的最大事件数。 -
start
(可选, 字符串 | 单位): 指定获取时间戳晚于此时间的事件。
-
get_calendars
编辑获取日历配置信息。
client.ml.getCalendars({ ... })
参数
编辑-
请求 (对象)
-
calendar_id
(可选, 字符串): 唯一标识日历的字符串。你可以通过使用 ID 列表或通配符表达式来获取多个日历的信息。你可以通过使用_all
或*
或者省略日历标识符来获取所有日历的信息。 -
page
(可选, { from, size }): 仅当你省略日历标识符时才支持此对象。 -
from
(可选, 数字): 跳过指定数量的日历。仅当你省略日历标识符时才支持此参数。 -
size
(可选, 数字): 指定要获取的最大日历数。仅当你省略日历标识符时才支持此参数。
-
get_categories
编辑获取类别的异常检测作业结果。
client.ml.getCategories({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
category_id
(可选, 字符串): 类别的标识符,在作业中是唯一的。 如果你既不指定类别 ID 也不指定 partition_field_value,则 API 会返回有关所有类别的信息。如果你仅指定 partition_field_value,则它会返回有关指定分区的所有类别的信息。 -
page
(可选, { from, size }): 配置分页。此参数具有from
和size
属性。 -
from
(可选, 数字): 跳过指定数量的类别。 -
partition_field_value
(可选, 字符串): 仅返回指定分区的类别。 -
size
(可选, 数字): 指定要获取的最大类别数。
-
get_data_frame_analytics
编辑获取数据帧分析作业配置信息。你可以通过使用逗号分隔的数据帧分析作业列表或通配符表达式,在单个 API 请求中获取多个数据帧分析作业的信息。
client.ml.getDataFrameAnalytics({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 数据帧分析作业的标识符。如果你未指定此选项,则 API 会返回前 100 个数据帧分析作业的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的数据帧分析作业。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
-
默认值在没有匹配项时返回一个空 data_frame_analytics 数组,并在有部分匹配项时返回结果的子集。如果此参数为 false
,则在没有匹配项或仅有部分匹配项时,请求会返回 404 状态代码。 from
(可选, 数字): 跳过指定数量的数据帧分析作业。 size
(可选, 数字): 指定要获取的最大数据帧分析作业数。 * *exclude_generated
(可选, 布尔值): 指示在检索时是否应从配置中删除某些字段。这允许配置处于可接受的格式,以便检索并添加到另一个群集。
get_data_frame_analytics_stats
编辑获取数据帧分析作业的使用信息。
client.ml.getDataFrameAnalyticsStats({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 数据帧分析作业的标识符。如果你未指定此选项,则 API 会返回前 100 个数据帧分析作业的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的数据帧分析作业。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
-
默认值在没有匹配项时返回一个空 data_frame_analytics 数组,并在有部分匹配项时返回结果的子集。如果此参数为 false
,则在没有匹配项或仅有部分匹配项时,请求会返回 404 状态代码。 from
(可选, 数字): 跳过指定数量的数据帧分析作业。 size
(可选, 数字): 指定要获取的最大数据帧分析作业数。 * *verbose
(可选, 布尔值): 定义统计信息响应是否应详细。
get_datafeed_stats
编辑获取数据馈送的使用信息。你可以通过使用逗号分隔的数据馈送列表或通配符表达式,在单个 API 请求中获取多个数据馈送的统计信息。你可以通过使用 _all
、将 *
指定为 <feed_id>
或省略 <feed_id>
来获取所有数据馈送的统计信息。如果数据馈送已停止,你收到的唯一信息是 datafeed_id
和 state
。此 API 最多返回 10,000 个数据馈送。
client.ml.getDatafeedStats({ ... })
参数
编辑-
请求 (对象)
-
datafeed_id
(可选, 字符串 | 字符串数组): 数据馈送的标识符。它可以是数据馈送标识符或通配符表达式。如果你未指定这些选项之一,则 API 会返回有关所有数据馈送的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式且没有匹配的数据馈送。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
-
默认值为 true
,它在没有匹配项时返回一个空的 datafeeds
数组,并在有部分匹配项时返回结果的子集。如果此参数为 false
,则在没有匹配项或仅有部分匹配项时,请求会返回 404
状态代码。
get_datafeeds
编辑获取数据馈送配置信息。你可以通过使用逗号分隔的数据馈送列表或通配符表达式,在单个 API 请求中获取多个数据馈送的信息。你可以通过使用 _all
、将 *
指定为 <feed_id>
或省略 <feed_id>
来获取所有数据馈送的信息。此 API 最多返回 10,000 个数据馈送。
client.ml.getDatafeeds({ ... })
参数
编辑-
请求 (对象)
-
datafeed_id
(可选, 字符串 | 字符串数组): 数据馈送的标识符。它可以是数据馈送标识符或通配符表达式。如果你未指定这些选项之一,则 API 会返回有关所有数据馈送的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式且没有匹配的数据馈送。
- 包含
_all
字符串或没有标识符且没有匹配项。 - 包含通配符表达式且只有部分匹配项。
-
默认值为 true
,它在没有匹配项时返回一个空的 datafeeds
数组,并在有部分匹配项时返回结果的子集。如果此参数为 false
,则在没有匹配项或仅有部分匹配项时,请求会返回 404
状态代码。 * *exclude_generated
(可选, 布尔值): 指示在检索时是否应从配置中删除某些字段。这允许配置处于可接受的格式,以便检索并添加到另一个群集。
get_filters
编辑获取过滤器。你可以获取单个过滤器或所有过滤器。
client.ml.getFilters({ ... })
参数
编辑-
请求 (对象)
-
filter_id
(可选, 字符串 | 字符串数组): 唯一标识过滤器的字符串。 -
from
(可选, 数字): 跳过指定数量的过滤器。 -
size
(可选, 数字): 指定要获取的最大过滤器数。
-
get_influencers
编辑获取影响因素的异常检测作业结果。影响因素是导致异常或应为异常负责的实体。仅当在作业配置中指定了 influencer_field_name
时,才提供影响因素结果。
client.ml.getInfluencers({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
page
(可选, { from, size }): 配置分页。此参数具有from
和size
属性。 -
desc
(可选, 布尔值): 如果为 true,则结果按降序排序。 -
end
(可选, 字符串 | 单位): 返回时间戳早于此时间的影响因素。默认值表示未设置,结果不限于特定时间戳。 -
exclude_interim
(可选, 布尔值): 如果为 true,则输出不包括临时结果。默认情况下,包括临时结果。 -
influencer_score
(可选, 数字): 返回异常分数大于或等于此值的影响因素。 -
from
(可选, 数字): 跳过指定数量的影响因素。 -
size
(可选, 数字): 指定要获取的最大影响因素数。 -
sort
(可选, 字符串): 指定所请求的影响因素的排序字段。默认情况下,影响因素按influencer_score
值排序。 -
start
(可选, 字符串 | 单位): 返回时间戳晚于此时间的影响因素。默认值表示未设置,结果不限于特定时间戳。
-
get_job_stats
编辑获取异常检测作业的使用信息。
client.ml.getJobStats({ ... })
参数
编辑-
请求 (对象)
-
job_id
(可选, 字符串): 异常检测任务的标识符。它可以是任务标识符、组名、任务列表或通配符表达式。如果您未指定这些选项之一,API 将返回所有异常检测任务的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式且没有匹配的作业。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
如果 true
,则当没有匹配项时,API 返回一个空的 jobs
数组,当存在部分匹配项时,返回结果的子集。如果 false
,则当没有匹配项或只有部分匹配项时,API 返回 404
状态代码。
get_jobs
编辑获取异常检测任务配置信息。您可以通过使用组名、以逗号分隔的任务列表或通配符表达式,在单个 API 请求中获取多个异常检测任务的信息。您可以通过使用 _all
、指定 *
作为 <job_id>
或省略 <job_id>
来获取所有异常检测任务的信息。
client.ml.getJobs({ ... })
参数
编辑-
请求 (对象)
-
job_id
(可选, 字符串 | 字符串数组): 异常检测任务的标识符。它可以是任务标识符、组名或通配符表达式。如果您未指定这些选项之一,API 将返回所有异常检测任务的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式且没有匹配的作业。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
默认值为 true
,当没有匹配项时,返回一个空的 jobs
数组,当存在部分匹配项时,返回结果的子集。如果此参数为 false
,则当没有匹配项或只有部分匹配项时,请求返回 404
状态代码。* *exclude_generated
(可选, 布尔值): 指示是否应从检索到的配置中删除某些字段。这允许配置以可接受的格式检索,然后添加到另一个集群。
get_memory_stats
编辑获取机器学习内存使用情况信息。获取关于机器学习任务和训练模型如何在每个节点上使用内存的信息,包括 JVM 堆内和 JVM 之外的本机内存。
client.ml.getMemoryStats({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串): 要定位的集群中特定节点的名称。例如,nodeId1,nodeId2
或ml:true
-
human
(可选, 布尔值): 指定此查询参数以在响应中包含带有单位的字段。否则,响应中仅返回_in_bytes
大小。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_model_snapshot_upgrade_stats
编辑获取异常检测任务模型快照升级使用情况信息。
client.ml.getModelSnapshotUpgradeStats({ job_id, snapshot_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(字符串): 唯一标识模型快照的数字字符串。您可以通过使用列表或通配符表达式来获取多个快照的信息。您可以通过使用_all
、指定*
作为快照 ID 或省略快照 ID 来获取所有快照的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式且没有匹配的作业。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
默认值为 true,当没有匹配项时,返回一个空的 jobs 数组,当存在部分匹配项时,返回结果的子集。如果此参数为 false,则当没有匹配项或只有部分匹配项时,请求返回 404 状态代码。
get_model_snapshots
编辑获取模型快照信息。
client.ml.getModelSnapshots({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(可选, 字符串): 唯一标识模型快照的数字字符串。您可以通过使用列表或通配符表达式来获取多个快照的信息。您可以通过使用_all
、指定*
作为快照 ID 或省略快照 ID 来获取所有快照的信息。 -
desc
(可选,布尔值):请参阅desc
查询参数的描述。 -
end
(可选,字符串 | 单位):请参阅end
查询参数的描述。 -
page
(可选,{ from, size }) -
sort
(可选, 字符串): 请参阅sort
查询参数的说明。 -
start
(可选,字符串 | 单位):请参阅start
查询参数的描述。 -
from
(可选, 数字): 跳过指定数量的快照。 -
size
(可选, 数字): 指定要获取的最大快照数量。
-
get_overall_buckets
编辑获取整体存储桶结果。
检索汇总多个异常检测任务的存储桶结果的整体存储桶结果。
overall_score
的计算方法是,将整体存储桶跨度内的所有存储桶的分数组合在一起。首先,计算每个异常检测任务在整体存储桶中的最大 anomaly_score
。然后,将这些分数的 top_n
平均,得出 overall_score
。这意味着您可以微调 overall_score
,使其对同时检测到异常的任务数量更加或更不敏感。例如,如果将 top_n
设置为 1
,则 overall_score
是整体存储桶中的最大存储桶分数。或者,如果将 top_n
设置为任务数,则仅当所有任务都在该整体存储桶中检测到异常时,overall_score
才会很高。如果设置 bucket_span
参数(设置为大于其默认值的值),则 overall_score
是具有与任务最大存储桶跨度相等的跨度的整体存储桶的最大 overall_score
。
client.ml.getOverallBuckets({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串): 异常检测任务的标识符。它可以是任务标识符、组名、任务或组列表,或通配符表达式。
-
您可以通过使用 _all
或指定 *
作为 <job_id>
来汇总所有异常检测任务的存储桶结果。 allow_no_match
(可选, 布尔值): 请参阅 allow_no_match
查询参数的说明。 bucket_span
(可选, 字符串 | -1 | 0): 请参阅 bucket_span
查询参数的说明。 end
(可选, 字符串 | 单位): 请参阅 end
查询参数的说明。 exclude_interim
(可选, 布尔值): 请参阅 exclude_interim
查询参数的说明。 overall_score
(可选, 数字 | 字符串): 请参阅 overall_score
查询参数的说明。 start
(可选, 字符串 | 单位): 请参阅 start
查询参数的说明。* *top_n
(可选, 数字): 请参阅 top_n
查询参数的说明。
get_records
编辑获取异常检测任务的异常记录。记录包含详细的分析结果。它们根据检测器配置描述在输入数据中识别出的异常活动。根据输入数据的特性和大小,可能存在许多异常记录。实际上,通常有太多记录无法手动处理。因此,机器学习功能将异常记录复杂地聚合到存储桶中。记录结果的数量取决于在每个存储桶中发现的异常数量,这与正在建模的时间序列数量和检测器的数量有关。
client.ml.getRecords({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
desc
(可选,布尔值):请参阅desc
查询参数的描述。 -
end
(可选,字符串 | 单位):请参阅end
查询参数的描述。 -
exclude_interim
(可选,布尔值):请参阅exclude_interim
查询参数的描述。 -
page
(可选,{ from, size }) -
record_score
(可选, 数字): 请参阅record_score
查询参数的说明。 -
sort
(可选, 字符串): 请参阅sort
查询参数的说明。 -
start
(可选,字符串 | 单位):请参阅start
查询参数的描述。 -
from
(可选, 数字): 跳过指定数量的记录。 -
size
(可选, 数字): 指定要获取的最大记录数量。
-
get_trained_models
编辑获取训练模型配置信息。
client.ml.getTrainedModels({ ... })
参数
编辑-
请求 (对象)
-
model_id
(可选, 字符串 | 字符串数组): 训练模型的唯一标识符或模型别名。
-
您可以通过使用模型 ID 列表或通配符表达式,在单个 API 请求中获取多个训练模型的信息。* *allow_no_match
(可选, 布尔值): 指定当请求时该怎么做
- 包含通配符表达式,并且没有匹配的模型。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
如果为 true,则当没有匹配项时,它将返回一个空数组,当存在部分匹配项时,将返回结果的子集。 decompress_definition
(可选, 布尔值): 指定应将包含的模型定义作为 JSON 映射 (true) 返回,还是以自定义压缩格式 (false) 返回。 exclude_generated
(可选, 布尔值): 指示是否应从检索到的配置中删除某些字段。这允许配置以可接受的格式检索,然后添加到另一个集群。 from
(可选, 数字): 跳过指定数量的模型。 include
(可选, 枚举("definition" | "feature_importance_baseline" | "hyperparameters" | "total_feature_importance" | "definition_status")): 以逗号分隔的字符串,表示要在响应正文中包含的可选字段。 size
(可选, 数字): 指定要获取的最大模型数量。 tags
(可选, 字符串 | 字符串数组): 以逗号分隔的标签字符串。一个训练模型可以有多个标签,也可以没有标签。当提供时,仅返回包含所有提供的标签的训练模型。
get_trained_models_stats
编辑获取训练模型使用情况信息。您可以通过使用以逗号分隔的模型 ID 列表或通配符表达式,在单个 API 请求中获取多个训练模型的使用情况信息。
client.ml.getTrainedModelsStats({ ... })
参数
编辑-
请求 (对象)
-
model_id
(可选, 字符串 | 字符串数组): 训练模型的唯一标识符或模型别名。它可以是列表或通配符表达式。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的模型。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
如果为 true,则在没有匹配项时返回空数组,并在存在部分匹配项时返回结果子集。 from
(可选, 数字): 跳过指定数量的模型。 size
(可选, 数字): 指定要获取的最大模型数量。
infer_trained_model
编辑评估已训练的模型。
client.ml.inferTrainedModel({ model_id, docs })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
docs
(Record<string, 用户定义值>[]): 要传递给模型进行推断的对象数组。这些对象应包含与您配置的已训练模型输入匹配的字段。通常,对于 NLP 模型,字段名称为text_field
。目前,对于 NLP 模型,只允许单个值。 -
inference_config
(可选, { regression, classification, text_classification, zero_shot_classification, fill_mask, ner, pass_through, text_embedding, text_expansion, question_answering }): 要应用于 API 调用的推理配置更新 -
timeout
(可选, string | -1 | 0): 控制等待推断结果的时间量。
-
info
编辑返回 ML 默认值和限制。返回机器学习使用的默认值和限制。此端点旨在供需要完全理解机器学习配置的用户界面使用,在这些配置中,某些选项未指定,这意味着应使用默认值。可以使用此端点来查找这些默认值。它还提供有关当前集群配置中可以运行的机器学习作业的最大大小的信息。
client.ml.info()
open_job
编辑打开异常检测作业。必须打开异常检测作业才能准备好接收和分析数据。它在其生命周期中可以多次打开和关闭。当您打开一个新作业时,它会从一个空模型开始。当您打开一个现有作业时,会自动加载最近的模型状态。一旦收到新数据,该作业就可以从中断的地方继续进行分析。
client.ml.openJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
timeout
(可选,字符串 | -1 | 0):请参阅timeout
查询参数的描述。
-
post_calendar_events
编辑向日历添加计划事件。
client.ml.postCalendarEvents({ calendar_id, events })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。 -
events
({ calendar_id, event_id, description, end_time, start_time }[]): 一个或多个计划事件的列表。事件的开始和结束时间可以指定为自 epoch 以来的整数毫秒数,也可以指定为 ISO 8601 格式的字符串。
-
post_data
编辑将数据发送到异常检测作业进行分析。
对于每个作业,一次只能从单个连接接受数据。目前无法使用通配符或逗号分隔列表将数据发布到多个作业。
client.ml.postData({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(string): 异常检测作业的标识符。该作业必须处于打开状态才能接收和处理数据。 -
data
(可选, TData[]) -
reset_end
(可选, string | Unit): 指定桶重置范围的结束。 -
reset_start
(可选, string | Unit): 指定桶重置范围的开始。
-
preview_data_frame_analytics
编辑预览数据框分析使用的功能。预览数据框分析配置使用的提取功能。
client.ml.previewDataFrameAnalytics({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, string): 数据框分析作业的标识符。 -
config
(可选, { source, analysis, model_memory_limit, max_num_threads, analyzed_fields }): 在创建数据框分析作业中描述的数据框分析配置。请注意,在此 API 的上下文中,不需要提供id
和dest
。
-
preview_datafeed
编辑预览数据馈送。此 API 从数据馈送返回搜索结果的第一“页”。您可以预览现有数据馈送,或在 API 中为数据馈送和异常检测作业提供配置详细信息。预览显示将传递给异常检测引擎的数据结构。重要提示:启用 Elasticsearch 安全功能后,预览将使用调用 API 的用户的凭据。但是,当数据馈送开始时,它将使用创建或更新数据馈送的最后一个用户的角色。要获取准确反映数据馈送行为的预览,请使用相应的凭据。您还可以使用辅助授权标头来提供凭据。
client.ml.previewDatafeed({ ... })
参数
编辑-
请求 (对象)
-
datafeed_id
(可选, string): 唯一标识数据馈送的数字字符串。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。注意:如果使用此路径参数,则不能在请求正文中提供数据馈送或异常检测作业配置详细信息。 -
datafeed_config
(可选, { aggregations, chunking_config, datafeed_id, delayed_data_check_config, frequency, indices, indices_options, job_id, max_empty_searches, query, query_delay, runtime_mappings, script_fields, scroll_size }): 要预览的数据馈送定义。 -
job_config
(可选, { allow_lazy_open, analysis_config, analysis_limits, background_persist_interval, custom_settings, daily_model_snapshot_retention_after_days, data_description, datafeed_config, description, groups, job_id, job_type, model_plot_config, model_snapshot_retention_days, renormalization_window_days, results_index_name, results_retention_days }): 与数据馈送关联的异常检测作业的配置详细信息。如果datafeed_config
对象不包含引用现有异常检测作业的job_id
,则必须提供此job_config
对象。如果同时包含job_id
和job_config
,则使用后者的信息。除非同时提供datafeed_config
对象,否则不能指定job_config
对象。 -
start
(可选, string | Unit): 数据馈送预览应开始的起始时间 -
end
(可选, string | Unit): 数据馈送预览应停止的结束时间
-
put_calendar
编辑创建日历。
client.ml.putCalendar({ calendar_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。 -
job_ids
(可选, string[]): 异常检测作业标识符的数组。 -
description
(可选, string): 日历的描述。
-
put_calendar_job
编辑将异常检测作业添加到日历。
client.ml.putCalendarJob({ calendar_id, job_id })
参数
编辑-
请求 (对象)
-
calendar_id
(字符串):唯一标识日历的字符串。 -
job_id
(字符串 | 字符串数组):异常检测作业的标识符。它可以是作业标识符、组名或作业或组的列表。
-
put_data_frame_analytics
编辑创建数据框分析作业。此 API 创建一个数据框分析作业,该作业对源索引执行分析并将结果存储在目标索引中。
client.ml.putDataFrameAnalytics({ id, analysis, dest, source })
参数
编辑-
请求 (对象)
-
id
(string): 数据框分析作业的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
analysis
({ classification, outlier_detection, regression }): 分析配置,其中包含执行以下分析类型之一所需的信息:分类、异常值检测或回归。 -
dest
({ index, results_field }): 目标配置。 -
source
({ index, query, runtime_mappings, _source }): 如何获取分析数据的配置。 -
allow_lazy_start
(可选, boolean): 指定当没有足够的机器学习节点容量来立即将其分配给节点时,此作业是否可以启动。如果设置为false
并且无法立即找到具有运行作业容量的机器学习节点,则 API 将返回错误。如果设置为true
,则 API 不会返回错误;该作业将在starting
状态下等待,直到有足够的机器学习节点容量可用。此行为还受到集群范围的xpack.ml.max_lazy_ml_nodes
设置的影响。 -
analyzed_fields
(可选, { includes, excludes }): 指定includes
和/或excludes
模式以选择将在分析中包含哪些字段。excludes
中指定的模式最后应用,因此excludes
具有优先权。换句话说,如果同一个字段在includes
和excludes
中都指定了,则该字段将不会包含在分析中。如果未设置analyzed_fields
,则仅包含相关字段。例如,所有用于异常值检测的数字字段。支持的字段因每种分析类型而异。异常值检测需要数字或boolean
数据进行分析。该算法不支持缺失值,因此将忽略具有数字或布尔值以外数据类型的字段。包含缺失值、空值或数组的包含字段的文档也会被忽略。因此,dest
索引可能包含没有异常值分数的文档。回归支持数字、boolean
、text
、keyword
和ip
数据类型的字段。它也容忍缺失值。支持的字段将包含在分析中,其他字段将被忽略。包含两个或多个值的数组的包含字段的文档也会被忽略。dest
索引中不包含结果字段的文档不会包含在回归分析中。分类支持数字、boolean
、text
、keyword
和ip
数据类型的字段。它也容忍缺失值。支持的字段将包含在分析中,其他字段将被忽略。包含两个或多个值的数组的包含字段的文档也会被忽略。dest
索引中不包含结果字段的文档不会包含在分类分析中。可以通过将序数变量值映射到单个数字来改进分类分析。例如,对于年龄范围,可以将值建模为0-14 = 0
、15-24 = 1
、25-34 = 2
,依此类推。 -
description
(可选,字符串):作业的描述。 -
max_num_threads
(可选,数字):分析要使用的最大线程数。使用更多线程可能会减少完成分析所需的时间,但代价是使用更多的 CPU。请注意,该进程可能会为除分析本身之外的操作功能使用其他线程。 -
model_memory_limit
(可选,字符串):允许用于分析处理的近似最大内存资源量。如果您的elasticsearch.yml
文件包含xpack.ml.max_model_memory_limit
设置,则当您尝试创建model_memory_limit
值大于该设置的数据框分析作业时,会发生错误。 -
headers
(可选, Record<string, string | string[]>) -
version
(可选, string)
-
put_datafeed
编辑创建数据馈送。数据馈送从 Elasticsearch 检索数据,以供异常检测作业进行分析。每个异常检测作业只能关联一个数据馈送。数据馈送包含一个以定义的间隔(frequency
)运行的查询。如果您担心数据延迟,可以在每个间隔添加延迟(query_delay
)。启用 Elasticsearch 安全功能后,您的数据馈送会记住创建它时用户的角色,并使用相同的角色运行查询。如果您提供辅助授权标头,则将改用这些凭据。您必须使用 Kibana、此 API 或创建异常检测作业 API 来创建数据馈送。请勿直接将数据馈送添加到 .ml-config
索引。请勿向用户授予对 .ml-config
索引的 write
权限。
client.ml.putDatafeed({ datafeed_id })
参数
编辑-
请求 (对象)
-
datafeed_id
(字符串):唯一标识数据馈送的数字字符串。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
aggregations
(可选,Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>):如果设置,数据馈送将执行聚合搜索。对聚合的支持有限,应仅与低基数数据一起使用。 -
chunking_config
(可选,{ mode, time_span }):数据馈送可能需要在较长的时间段(几个月或几年)内进行搜索。此搜索被分成时间块,以确保管理 Elasticsearch 上的负载。分块配置控制如何计算这些时间块的大小;它是一个高级配置选项。 -
delayed_data_check_config
(可选,{ check_window, enabled }):指定数据馈送是否检查丢失的数据以及窗口的大小。数据馈送可以选择搜索已读取的索引,以确定是否随后向该索引添加了任何数据。如果发现丢失的数据,则很好地表明query_delay
设置得太低,并且数据是在数据馈送经过该时间点后被索引的。此检查仅在实时数据馈送上运行。 -
frequency
(可选,string | -1 | 0):数据馈送实时运行时执行计划查询的间隔。默认值是短存储桶跨度,或者,对于较长的存储桶跨度,则是存储桶跨度的合理部分。当frequency
短于存储桶跨度时,将写入最后一个(部分)存储桶的临时结果,然后最终被完整存储桶的结果覆盖。如果数据馈送使用聚合,则此值必须可被日期直方图聚合的间隔整除。 -
indices
(可选,string | string[]):索引名称数组。支持通配符。如果任何索引位于远程集群中,则机器学习节点必须具有remote_cluster_client
角色。 -
indices_options
(可选,{ allow_no_indices, expand_wildcards, ignore_unavailable, ignore_throttled }):指定搜索期间使用的索引扩展选项。 -
job_id
(可选, 字符串):异常检测作业的标识符。 -
max_empty_searches
(可选,number):如果实时数据馈送从未看到任何数据(包括在任何初始训练期间),则在返回此数量的实时搜索都没有文档后,它会自动停止并关闭相关作业。换句话说,它会在frequency
次乘以max_empty_searches
的实时操作后停止。如果未设置,则没有结束时间且看不到数据的馈送将保持启动状态,直到显式停止。默认情况下,它未设置。 -
query
(可选,{ bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):Elasticsearch 查询特定领域语言 (DSL)。此值对应于 Elasticsearch 搜索 POST 主体中的 query 对象。可以使用 Elasticsearch 支持的所有选项,因为此对象按原样传递到 Elasticsearch。 -
query_delay
(可选,string | -1 | 0):查询数据的时间比实时时间延迟的秒数。例如,如果上午 10:04 的数据可能要到上午 10:06 才能在 Elasticsearch 中搜索,请将此属性设置为 120 秒。默认值在60s
和120s
之间随机选择。当同一节点上运行多个作业时,此随机性会提高查询性能。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>):指定数据馈送搜索的运行时字段。 -
script_fields
(可选,Record<string, { script, ignore_failure }>):指定计算自定义表达式并向数据馈送返回脚本字段的脚本。作业中的检测器配置对象可以包含使用这些脚本字段的函数。 -
scroll_size
(可选,number):当数据馈送不使用聚合时,在 Elasticsearch 搜索中使用的 size 参数。最大值是index.max_result_window
的值,默认值为 10,000。 -
headers
(可选, Record<string, string | string[]>) -
allow_no_indices
(可选,boolean):如果为 true,则会忽略解析为无具体索引的通配符索引表达式。这包括_all
字符串或未指定索引的情况。 -
expand_wildcards
(可选,Enum("all" | "open" | "closed" | "hidden" | "none") | Enum("all" | "open" | "closed" | "hidden" | "none")[]):通配符模式可以匹配的索引类型。如果请求可以以数据流为目标,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表。 -
ignore_throttled
(可选,boolean):如果为 true,则在冻结时将忽略具体的、展开的或别名化的索引。 -
ignore_unavailable
(可选,boolean):如果为 true,则会忽略不可用的索引(缺失或已关闭)。
-
put_filter
编辑创建过滤器。过滤器包含字符串列表。它可供一个或多个异常检测作业使用。具体而言,过滤器在检测器配置对象的 custom_rules
属性中引用。
client.ml.putFilter({ filter_id })
参数
编辑-
请求 (对象)
-
filter_id
(字符串):唯一标识过滤器的字符串。 -
description
(可选,string):过滤器的描述。 -
items
(可选,string[]):过滤器的项。通配符*
可用于项的开头或结尾。每个过滤器最多允许 10000 个项。
-
put_job
编辑创建异常检测作业。如果包含 datafeed_config
,则必须对源索引具有读取索引权限。
client.ml.putJob({ job_id, analysis_config, data_description })
参数
编辑-
请求 (对象)
-
job_id
(string):异常检测作业的标识符。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
analysis_config
({ bucket_span, categorization_analyzer, categorization_field_name, categorization_filters, detectors, influencers, latency, model_prune_window, multivariate_by_fields, per_partition_categorization, summary_count_field_name }):指定如何分析数据。创建作业后,无法更改分析配置;所有属性都是信息性的。 -
data_description
({ format, time_field, time_format, field_delimiter }):定义当您使用 post data API 将数据发送到作业时输入数据的格式。请注意,当配置数据馈送时,将自动设置这些属性。通过 post data API 接收数据时,数据不会存储在 Elasticsearch 中。仅保留异常检测的结果。 -
allow_lazy_open
(可选,boolean):高级配置选项。指定当没有足够的机器学习节点容量可将其立即分配给节点时,此作业是否可以打开。默认情况下,如果无法立即找到有能力运行该作业的机器学习节点,则打开异常检测作业 API 将返回错误。但是,这也受集群范围的xpack.ml.max_lazy_ml_nodes
设置的限制。如果将此选项设置为 true,则打开异常检测作业 API 不会返回错误,并且作业将等待打开状态,直到有足够的机器学习节点容量可用。 -
analysis_limits
(可选,{ categorization_examples_limit, model_memory_limit }):可以对内存中保存数学模型所需的资源应用限制。这些限制是近似值,可以为每个作业设置。它们不控制其他进程(例如 Elasticsearch Java 进程)使用的内存。 -
background_persist_interval
(可选, 字符串 | -1 | 0): 高级配置选项。模型每次定期持久化之间的时间间隔。默认值是 3 到 4 小时之间的随机值,这避免了所有作业在完全相同的时间持久化。允许的最小值是 1 小时。对于非常大的模型(几 GB),持久化可能需要 10-20 分钟,因此不要将background_persist_interval
值设置得太低。 -
custom_settings
(可选, 用户定义的值): 高级配置选项。包含有关作业的自定义元数据。 -
daily_model_snapshot_retention_after_days
(可选, 数字): 高级配置选项,会影响此作业的旧模型快照的自动删除。它指定一个时间段(以天为单位),在此时间段之后,每天只保留第一个快照。此时间段相对于此作业的最新快照的时间戳。有效值范围从 0 到model_snapshot_retention_days
。 -
datafeed_config
(可选, { aggregations, chunking_config, datafeed_id, delayed_data_check_config, frequency, indices, indices_options, job_id, max_empty_searches, query, query_delay, runtime_mappings, script_fields, scroll_size }): 定义异常检测作业的数据馈送。如果启用了 Elasticsearch 安全功能,则您的数据馈送会记住创建它时用户所拥有的角色,并使用相同的角色运行查询。如果您提供辅助授权标头,则会改用这些凭据。 -
description
(可选,字符串):作业的描述。 -
groups
(可选, 字符串数组): 作业组的列表。一个作业可以不属于任何组或属于多个组。 -
model_plot_config
(可选, { annotations_enabled, enabled, terms }): 此高级配置选项将模型信息与结果一起存储。它提供了对异常检测的更详细的视图。如果启用模型图,则可能会给系统性能增加相当大的开销;对于具有多个实体的作业,这是不可行的。模型图提供了模型及其边界的简化和指示性视图。它不显示复杂的功能,例如多变量相关性或多模态数据。因此,有时可能会报告在模型图中看不到的异常。模型图配置可以在创建作业时配置,也可以稍后更新。如果遇到性能问题,则必须禁用它。 -
model_snapshot_retention_days
(可选, 数字): 高级配置选项,会影响此作业的旧模型快照的自动删除。它指定快照保留的最长时间段(以天为单位)。此时间段相对于此作业的最新快照的时间戳。默认情况下,将删除比最新快照旧十天的快照。 -
renormalization_window_days
(可选, 数字): 高级配置选项。在看到新数据时,对分数进行调整的时间段。默认值为 30 天或 100 个存储桶跨度中的较长者。 -
results_index_name
(可选, 字符串): 一个文本字符串,会影响机器学习结果索引的名称。默认情况下,作业会生成一个名为.ml-anomalies-shared
的索引。 -
results_retention_days
(可选, 数字): 高级配置选项。结果保留的时间段(以天为单位)。年龄是相对于最新存储桶结果的时间戳计算的。如果此属性具有非空值,则每天 00:30(服务器时间)会从 Elasticsearch 中删除比最新存储桶结果旧指定天数的结果。默认值为 null,表示保留所有结果。系统生成的注释也算作保留目的的结果;它们在与结果相同的天数后被删除。用户添加的注释将永远保留。
-
put_trained_model
编辑创建训练模型。使您可以提供非由数据帧分析创建的训练模型。
client.ml.putTrainedModel({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
compressed_definition
(可选, 字符串): 模型的压缩(GZipped 和 Base64 编码)推理定义。如果指定了 compressed_definition,则不能指定 definition。 -
definition
(可选, { preprocessors, trained_model }): 模型的推理定义。如果指定了 definition,则不能指定 compressed_definition。 -
description
(可选, 字符串): 对推理训练模型的易于理解的描述。 -
inference_config
(可选, { regression, classification, text_classification, zero_shot_classification, fill_mask, ner, pass_through, text_embedding, text_expansion, question_answering }): 推理的默认配置。这可以是回归配置或分类配置。它必须与基础 definition.trained_model 的 target_type 匹配。对于预打包的模型(例如 ELSER),不需要此配置。 -
input
(可选, { field_names }): 模型定义的输入字段名称。 -
metadata
(可选, 用户定义的值): 一个对象映射,包含有关模型的元数据。 -
model_type
(可选, 枚举("tree_ensemble" | "lang_ident" | "pytorch")): 模型类型。 -
model_size_bytes
(可选, 数字): 将训练模型保留在内存中的估计内存使用量(以字节为单位)。仅当 defer_definition_decompression 为 true 或未提供模型定义时才支持此属性。 -
platform_architecture
(可选, 字符串): 训练模型的平台架构(如果适用)。如果模型仅在一个平台上工作,因为它针对特定的处理器架构和操作系统组合进行了高度优化,则此字段指定哪个。字符串的格式必须与 Elasticsearch 使用的平台标识符匹配,因此必须是linux-x86_64
、linux-aarch64
、darwin-x86_64
、darwin-aarch64
或windows-x86_64
之一。对于可移植模型(那些独立于处理器架构或操作系统功能工作的模型),请将此字段保留未设置状态。 -
tags
(可选, 字符串数组): 用于组织模型的标签数组。 -
prefix_strings
(可选, { ingest, search }): 在推理时应用的可选前缀字符串 -
defer_definition_decompression
(可选, 布尔值): 如果设置为true
且提供了compressed_definition
,则请求会延迟定义解压缩并跳过相关的验证。 -
wait_for_completion
(可选, 布尔值): 是否等待所有子操作(例如模型下载)完成。
-
put_trained_model_alias
编辑创建或更新训练模型别名。训练模型别名是用于引用单个训练模型的逻辑名称。您可以使用别名而不是训练模型标识符,以便更轻松地引用模型。例如,您可以在推理聚合和处理器中使用别名。别名必须是唯一的,并且只能引用一个训练模型。但是,每个训练模型可以有多个别名。如果您使用此 API 更新别名,使其引用不同的训练模型 ID,并且该模型使用不同类型的数据帧分析,则会发生错误。例如,如果您有一个用于回归分析的训练模型和一个用于分类分析的训练模型,则会发生这种情况;您不能将别名从一种类型的训练模型重新分配给另一种类型的训练模型。如果您使用此 API 更新别名,并且旧模型别名和新模型别名之间只有很少的公共输入字段,则 API 会返回警告。
client.ml.putTrainedModelAlias({ model_alias, model_id })
参数
编辑-
请求 (对象)
-
model_alias
(字符串): 要创建或更新的别名。此值不能以数字结尾。 -
model_id
(字符串): 别名引用的训练模型的标识符。 -
reassign
(可选, 布尔值): 指定如果别名已分配给不同的模型,是否将别名重新分配给指定的训练模型。如果别名已分配并且此参数为 false,则 API 返回错误。
-
put_trained_model_definition_part
编辑创建训练模型定义的一部分。
client.ml.putTrainedModelDefinitionPart({ model_id, part, definition, total_definition_length, total_parts })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
part
(数字): 定义部分号。当加载定义以进行推理时,定义部分会按照它们的部分号顺序进行流式传输。第一部分必须是0
,最后一部分必须是total_parts - 1
。 -
definition
(字符串): 模型的定义部分。必须是 base64 编码的字符串。 -
total_definition_length
(数字): 未压缩定义的总长度(以字节为单位)。不是 base64 编码的。 -
total_parts
(数字): 将上传的总部分数。必须大于 0。
-
put_trained_model_vocabulary
编辑创建训练模型词汇表。此 API 仅支持自然语言处理 (NLP) 模型。词汇表按照训练模型定义的 inference_config.*.vocabulary
中所述存储在索引中。
client.ml.putTrainedModelVocabulary({ model_id, vocabulary })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
vocabulary
(字符串数组): 模型词汇表,不能为空。 -
merges
(可选, 字符串数组): 如果标记器需要,则为可选的模型合并。 -
scores
(可选, 数字数组): 如果标记器需要,则为可选的词汇值分数。
-
reset_job
编辑重置异常检测作业。所有模型状态和结果都将被删除。该作业准备重新开始,就像刚刚创建一样。目前无法使用通配符或逗号分隔列表重置多个作业。
client.ml.resetJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):要重置的作业的 ID。 -
wait_for_completion
(可选,布尔值):此请求是否应等待操作完成才返回。 -
delete_user_annotations
(可选,布尔值):指定在重置作业时,是否应删除用户添加的注释以及任何自动生成的注释。
-
恢复模型快照
编辑恢复到快照。机器学习功能会对异常输入快速做出反应,从而学习数据中的新行为。高度异常的输入会增加模型的方差,同时系统会学习这是否是行为的新阶跃变化还是一次性事件。如果已知此异常输入是一次性的,则可能适合将模型状态重置到此事件发生之前的时间。例如,您可能会考虑在黑色星期五或关键系统故障后恢复到已保存的快照。
client.ml.revertModelSnapshot({ job_id, snapshot_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(字符串):您可以将empty
指定为 <snapshot_id>。恢复到空快照意味着异常检测作业在启动时将从头开始学习新模型。 -
delete_intervening_results
(可选,布尔值):请参阅delete_intervening_results
查询参数的描述。
-
设置升级模式
编辑设置 ML 索引的 upgrade_mode。设置集群范围的 upgrade_mode 设置,为升级准备机器学习索引。升级集群时,在某些情况下,您必须重新启动节点并重新索引机器学习索引。在这些情况下,必须没有机器学习作业正在运行。您可以关闭机器学习作业,执行升级,然后再次打开所有作业。或者,您可以使用此 API 临时停止与作业和数据馈送关联的任务,并阻止打开新作业。您也可以在不需要重新索引机器学习索引的升级期间使用此 API,尽管在这种情况下停止作业不是必需的。您可以使用获取机器学习信息 API 来查看 upgrade_mode 设置的当前值。
client.ml.setUpgradeMode({ ... })
参数
编辑-
请求 (对象)
-
enabled
(可选,布尔值):当true
时,它会启用upgrade_mode
,该模式会临时停止所有作业和数据馈送任务,并禁止启动新的作业和数据馈送任务。 -
timeout
(可选,字符串 | -1 | 0):等待请求完成的时间。
-
启动数据帧分析
编辑启动数据帧分析作业。数据帧分析作业在其整个生命周期中可以启动和停止多次。如果目标索引不存在,则在您首次启动数据帧分析作业时会自动创建它。目标索引的 index.number_of_shards
和 index.number_of_replicas
设置是从源索引复制的。如果存在多个源索引,则目标索引会复制最高的设置值。目标索引的映射也从源索引复制。如果存在任何映射冲突,则作业将无法启动。如果目标索引存在,则按原样使用。因此,您可以提前设置具有自定义设置和映射的目标索引。
client.ml.startDataFrameAnalytics({ id })
参数
编辑-
请求 (对象)
-
id
(string): 数据框分析作业的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
timeout
(可选,字符串 | -1 | 0):控制等待数据帧分析作业启动的时间。
-
启动数据馈送
编辑启动数据馈送。
必须启动数据馈送才能从 Elasticsearch 检索数据。数据馈送在其整个生命周期中可以启动和停止多次。
在启动数据馈送之前,必须打开异常检测作业。否则,会发生错误。
如果您重新启动已停止的数据馈送,它将从停止后下一个毫秒开始继续处理输入数据。如果停止和启动之间的该确切毫秒索引了新数据,则会将其忽略。
启用 Elasticsearch 安全功能后,您的数据馈送会记住上次创建或更新它的用户在创建或更新时拥有的角色,并使用相同的角色运行查询。如果您在创建或更新数据馈送时提供了辅助授权标头,则会改用这些凭据。
client.ml.startDatafeed({ datafeed_id })
参数
编辑-
请求 (对象)
-
datafeed_id
(字符串):唯一标识数据馈送的数字字符串。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
end
(可选,字符串 | 单位):请参阅end
查询参数的描述。 -
start
(可选,字符串 | 单位):请参阅start
查询参数的描述。 -
timeout
(可选,字符串 | -1 | 0):请参阅timeout
查询参数的描述。
-
启动训练模型部署
编辑启动训练模型部署。它将模型分配给每个机器学习节点。
client.ml.startTrainedModelDeployment({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):训练模型的唯一标识符。目前,仅支持 PyTorch 模型。 -
cache_size
(可选,数字 | 字符串):每个节点的模型推理缓存大小(在 JVM 堆之外的内存中)。默认值与model_size_bytes
的大小相同。要禁用缓存,可以提供0b
。 -
deployment_id
(可选,字符串):模型部署的唯一标识符。 -
number_of_allocations
(可选,数字):模型部署的每个节点上的模型分配数。节点上的所有分配都共享内存中模型的相同副本,但使用单独的一组线程来评估模型。增加此值通常会增加吞吐量。如果此设置大于硬件线程数,则会自动将其更改为小于硬件线程数的值。 -
priority
(可选,枚举("normal" | "low")):部署优先级。 -
queue_capacity
(可选,数字):指定队列中允许的推理请求数。当请求数超过此值后,将拒绝新请求并返回 429 错误。 -
threads_per_allocation
(可选,数字):设置推理期间每个模型分配使用的线程数。这通常会提高推理速度。推理过程是一个计算密集型过程;任何大于机器上可用硬件线程数的数字都不会提高推理速度。如果此设置大于硬件线程数,则会自动将其更改为小于硬件线程数的值。 -
timeout
(可选,字符串 | -1 | 0):指定等待模型部署的时间。 -
wait_for
(可选,枚举("started" | "starting" | "fully_allocated")):指定在返回之前等待的分配状态。
-
停止数据帧分析
编辑停止数据帧分析作业。数据帧分析作业在其整个生命周期中可以启动和停止多次。
client.ml.stopDataFrameAnalytics({ id })
参数
编辑-
请求 (对象)
-
id
(string): 数据框分析作业的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的数据帧分析作业。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
默认值为 true,当没有匹配项时返回一个空 data_frame_analytics 数组,当存在部分匹配项时返回结果的子集。如果此参数为 false,则当没有匹配项或仅有部分匹配项时,请求将返回 404 状态代码。 force
(可选,布尔值):如果为 true,则会强制停止数据帧分析作业。 timeout
(可选,字符串 | -1 | 0):控制等待数据帧分析作业停止的时间。默认为 20 秒。
停止数据馈送
编辑停止数据馈送。已停止的数据馈送将停止从 Elasticsearch 检索数据。数据馈送在其整个生命周期中可以启动和停止多次。
client.ml.stopDatafeed({ datafeed_id })
参数
编辑-
请求 (对象)
-
datafeed_id
(字符串):数据馈送的标识符。您可以通过使用以逗号分隔的数据馈送列表或通配符表达式,在单个 API 请求中停止多个数据馈送。您可以使用_all
或将*
指定为标识符来关闭所有数据馈送。 -
allow_no_match
(可选,布尔值):请参阅allow_no_match
查询参数的描述。 -
force
(可选,布尔值):请参阅force
查询参数的描述。 -
timeout
(可选,字符串 | -1 | 0):请参阅timeout
查询参数的描述。
-
停止训练模型部署
编辑停止训练模型部署。
client.ml.stopTrainedModelDeployment({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):已训练模型的唯一标识符。 -
allow_no_match
(可选,布尔值):指定在以下情况下如何处理请求:包含通配符表达式且没有匹配的部署;包含_all
字符串或没有标识符且没有匹配项;或包含通配符表达式且只有部分匹配项。默认情况下,当没有匹配项时返回一个空数组,当有部分匹配项时返回结果的子集。如果false
,则当没有匹配项或仅有部分匹配项时,请求将返回 404 状态代码。 -
force
(可选,布尔值):强制停止部署,即使它被摄取管道使用。在您重新启动模型部署之前,您无法使用这些管道。
-
更新数据帧分析
编辑更新数据帧分析作业。
client.ml.updateDataFrameAnalytics({ id })
参数
编辑-
请求 (对象)
-
id
(string): 数据框分析作业的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
description
(可选,字符串):作业的描述。 -
model_memory_limit
(可选,字符串):允许用于分析处理的近似最大内存资源量。如果您的elasticsearch.yml
文件包含xpack.ml.max_model_memory_limit
设置,则当您尝试创建model_memory_limit
值大于该设置的数据框分析作业时,会发生错误。 -
max_num_threads
(可选,数字):分析要使用的最大线程数。使用更多线程可能会减少完成分析所需的时间,但代价是使用更多的 CPU。请注意,该进程可能会为除分析本身之外的操作功能使用其他线程。 -
allow_lazy_start
(可选,布尔值):指定当没有足够的机器学习节点容量使其能够立即分配到节点时,此作业是否可以启动。
-
更新数据馈送
编辑更新数据馈送。您必须停止并启动数据馈送才能应用更改。启用 Elasticsearch 安全功能后,您的数据馈送会记住更新它的用户在更新时拥有的角色,并使用相同的角色运行查询。如果您提供辅助授权标头,则会改用这些凭据。
client.ml.updateDatafeed({ datafeed_id })
参数
编辑-
请求 (对象)
-
datafeed_id
(字符串):唯一标识数据馈送的数字字符串。此标识符可以包含小写字母数字字符(a-z 和 0-9)、连字符和下划线。它必须以字母数字字符开头和结尾。 -
aggregations
(可选,Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>):如果设置,数据馈送将执行聚合搜索。对聚合的支持有限,应仅与低基数数据一起使用。 -
chunking_config
(可选,{ mode, time_span }):数据馈送可能会在较长的时间段(例如数月或数年)内进行搜索。此搜索会拆分为时间块,以确保管理 Elasticsearch 上的负载。分块配置控制如何计算这些时间块的大小;这是一个高级配置选项。 -
delayed_data_check_config
(可选,{ check_window, enabled }):指定数据馈送是否检查丢失的数据以及窗口的大小。数据馈送可以选择搜索已读取的索引,以确定是否随后向该索引添加了任何数据。如果发现丢失的数据,则很好地表明query_delay
设置得太低,并且数据是在数据馈送经过该时间点后被索引的。此检查仅在实时数据馈送上运行。 -
frequency
(可选,string | -1 | 0):数据馈送实时运行时执行计划查询的间隔。默认值是短存储桶跨度,或者,对于较长的存储桶跨度,则是存储桶跨度的合理部分。当frequency
短于存储桶跨度时,将写入最后一个(部分)存储桶的临时结果,然后最终被完整存储桶的结果覆盖。如果数据馈送使用聚合,则此值必须可被日期直方图聚合的间隔整除。 -
indices
(可选,字符串[]):索引名称数组。支持通配符。如果任何索引位于远程群集中,则机器学习节点必须具有remote_cluster_client
角色。 -
indices_options
(可选,{ allow_no_indices, expand_wildcards, ignore_unavailable, ignore_throttled }):指定在搜索期间使用的索引扩展选项。 -
job_id
(可选,字符串) -
max_empty_searches
(可选,number):如果实时数据馈送从未看到任何数据(包括在任何初始训练期间),则在返回此数量的实时搜索都没有文档后,它会自动停止并关闭相关作业。换句话说,它会在frequency
次乘以max_empty_searches
的实时操作后停止。如果未设置,则没有结束时间且看不到数据的馈送将保持启动状态,直到显式停止。默认情况下,它未设置。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): Elasticsearch 查询领域特定语言 (DSL)。此值对应于 Elasticsearch 搜索 POST 主体中的查询对象。可以使用 Elasticsearch 支持的所有选项,因为此对象会原样传递给 Elasticsearch。请注意,如果更改查询,则分析的数据也会更改。因此,学习所需的时间可能很长,并且结果的可理解性是不可预测的。如果您想对源数据进行重大更改,建议您克隆作业和数据馈送并在克隆中进行修改。让两者并行运行,并在您对作业结果满意时关闭一个。 -
query_delay
(可选,string | -1 | 0):查询数据的时间比实时时间延迟的秒数。例如,如果上午 10:04 的数据可能要到上午 10:06 才能在 Elasticsearch 中搜索,请将此属性设置为 120 秒。默认值在60s
和120s
之间随机选择。当同一节点上运行多个作业时,此随机性会提高查询性能。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>):指定数据馈送搜索的运行时字段。 -
script_fields
(可选,Record<string, { script, ignore_failure }>):指定计算自定义表达式并向数据馈送返回脚本字段的脚本。作业中的检测器配置对象可以包含使用这些脚本字段的函数。 -
scroll_size
(可选, 数字): 当数据馈送不使用聚合时,在 Elasticsearch 搜索中使用的 size 参数。最大值是index.max_result_window
的值。 -
allow_no_indices
(可选, 布尔值): 如果为true
,则会忽略解析为没有具体索引的通配符索引表达式。这包括_all
字符串或未指定索引的情况。 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]): 通配符模式可以匹配的索引类型。如果请求可以定位数据流,则此参数确定通配符表达式是否匹配隐藏的数据流。支持值列表。有效值为:
-
-
all
: 匹配任何数据流或索引,包括隐藏的。 -
closed
: 匹配已关闭的非隐藏索引。也匹配任何非隐藏的数据流。数据流无法关闭。 -
hidden
: 匹配隐藏的数据流和隐藏的索引。必须与open
、closed
或两者结合使用。 -
none
: 不接受通配符模式。 -
open
: 匹配已打开的非隐藏索引。也匹配任何非隐藏的数据流。-
ignore_throttled
(可选, 布尔值): 如果为true
,则在冻结时会忽略具体的、展开的或别名的索引。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则会忽略不可用的索引(缺失或已关闭)。
-
update_filter
编辑更新过滤器。更新过滤器的描述、添加项或从列表中删除项。
client.ml.updateFilter({ filter_id })
参数
编辑-
请求 (对象)
-
filter_id
(字符串):唯一标识过滤器的字符串。 -
add_items
(可选, 字符串数组): 要添加到过滤器的项。 -
description
(可选, 字符串): 过滤器的描述。 -
remove_items
(可选, 字符串数组): 要从过滤器中删除的项。
-
update_job
编辑更新异常检测作业。更新异常检测作业的某些属性。
client.ml.updateJob({ job_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串): 作业的标识符。 -
allow_lazy_open
(可选, 布尔值): 高级配置选项。指定此作业是否可以在没有足够的机器学习节点容量立即将其分配给节点时打开。如果为false
并且无法立即找到具有运行作业能力的机器学习节点,则打开异常检测作业 API 将返回错误。但是,这也受集群范围的xpack.ml.max_lazy_ml_nodes
设置的约束。如果此选项设置为true
,则打开异常检测作业 API 不会返回错误,并且该作业将保持在打开状态,直到有足够的机器学习节点容量可用。 -
analysis_limits
(可选, { model_memory_limit }) -
background_persist_interval
(可选, 字符串 | -1 | 0): 高级配置选项。模型每次定期持久化之间的时间间隔。默认值是 3 到 4 小时之间的随机值,这样可以避免所有作业在完全相同的时间进行持久化。允许的最小值是 1 小时。对于非常大的模型(几 GB),持久化可能需要 10-20 分钟,因此不要将该值设置得太低。如果在进行更新时作业处于打开状态,则必须停止数据馈送、关闭作业,然后重新打开作业并重新启动数据馈送以使更改生效。 -
custom_settings
(可选, Record<字符串, 用户定义的值>): 高级配置选项。包含有关作业的自定义元数据。例如,它可以包含自定义 URL 信息,如“向机器学习结果添加自定义 URL”中所示。 -
categorization_filters
(可选, 字符串数组) -
description
(可选,字符串):作业的描述。 -
model_plot_config
(可选, { annotations_enabled, enabled, terms }) -
model_prune_window
(可选, 字符串 | -1 | 0) -
daily_model_snapshot_retention_after_days
(可选, 数字): 高级配置选项,它会影响此作业的旧模型快照的自动删除。它指定一个时间段(以天为单位),在此时间段之后,每天只保留第一个快照。此时间段相对于此作业的最新快照的时间戳。有效值的范围是 0 到model_snapshot_retention_days
。对于在 7.8.0 版本之前创建的作业,默认值与model_snapshot_retention_days
匹配。 -
model_snapshot_retention_days
(可选, 数字): 高级配置选项,它会影响此作业的旧模型快照的自动删除。它指定快照保留的最长时间段(以天为单位)。此时间段相对于此作业的最新快照的时间戳。 -
renormalization_window_days
(可选, 数字): 高级配置选项。当看到新数据时,应用到分数的调整的时间段。 -
results_retention_days
(可选, 数字): 高级配置选项。结果保留的时间段(以天为单位)。年龄是相对于最新存储桶结果的时间戳计算的。如果此属性具有非 null 值,则每天在 00:30(服务器时间)删除比最新存储桶结果早指定天数的结果。默认值为 null,这意味着保留所有结果。 -
groups
(可选, 字符串数组): 作业组的列表。一个作业可以不属于任何组或属于多个组。 -
detectors
(可选, { by_field_name, custom_rules, detector_description, detector_index, exclude_frequent, field_name, function, over_field_name, partition_field_name, use_null }[]): 检测器更新对象数组。 -
per_partition_categorization
(可选, { enabled, stop_on_warn }): 与分类如何与分区字段交互相关的设置。
-
update_model_snapshot
编辑更新快照。更新快照的某些属性。
client.ml.updateModelSnapshot({ job_id, snapshot_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(字符串):模型快照的标识符。 -
description
(可选, 字符串): 模型快照的描述。 -
retain
(可选, 布尔值): 如果为true
,则此快照将不会在自动清除早于model_snapshot_retention_days
的快照时删除。但是,当作业被删除时,此快照将被删除。
-
update_trained_model_deployment
编辑更新已训练的模型部署。
client.ml.updateTrainedModelDeployment({ model_id })
参数
编辑-
请求 (对象)
-
model_id
(字符串):训练模型的唯一标识符。目前,仅支持 PyTorch 模型。 -
number_of_allocations
(可选,数字):模型部署的每个节点上的模型分配数。节点上的所有分配都共享内存中模型的相同副本,但使用单独的一组线程来评估模型。增加此值通常会增加吞吐量。如果此设置大于硬件线程数,则会自动将其更改为小于硬件线程数的值。
-
upgrade_job_snapshot
编辑升级快照。将异常检测模型快照升级到最新的主要版本。随着时间的推移,旧的快照格式将被弃用并删除。异常检测作业仅支持来自当前或以前主要版本的快照。此 API 提供了一种将快照升级到当前主要版本的方法。这有助于准备集群以升级到下一个主要版本。一次只能升级每个异常检测作业的一个快照,并且升级的快照不能是异常检测作业的当前快照。
client.ml.upgradeJobSnapshot({ job_id, snapshot_id })
参数
编辑-
请求 (对象)
-
job_id
(字符串):异常检测作业的标识符。 -
snapshot_id
(字符串): 唯一标识模型快照的数字字符串。 -
wait_for_completion
(可选, 布尔值): 如果为 true,则 API 将在升级完成之前不会响应。否则,一旦升级任务被分配给节点,它就会立即响应。 -
timeout
(可选, 字符串 | -1 | 0): 控制等待请求完成的时间。
-
监控
编辑bulk
编辑监控功能使用此功能发送监控数据。
client.monitoring.bulk({ system_id, system_api_version, interval })
参数
编辑-
请求 (对象)
-
system_id
(字符串): 被监控系统的标识符 -
system_api_version
(字符串) -
interval
(字符串 | -1 | 0): 有效负载的收集间隔(例如,10s 或 10000ms) -
type
(可选, 字符串): 没有提供类型项的默认文档类型 -
operations
(可选, { index, create, update, delete } | { detect_noop, doc, doc_as_upsert, script, scripted_upsert, _source, upsert } | 对象[])
-
节点
编辑clear_repositories_metering_archive
编辑您可以使用此 API 清除集群中存档的存储库计量信息。
client.nodes.clearRepositoriesMeteringArchive({ node_id, max_archive_version })
参数
编辑-
请求 (对象)
-
node_id
(字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表。所有节点选择选项都在[此处](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/cluster.html#cluster-nodes)进行了解释。 -
max_archive_version
(数字): 指定要从存档中清除的最大 [archive_version](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/get-repositories-metering-api.html#get-repositories-metering-api-response-body)。
-
get_repositories_metering_info
编辑您可以使用集群存储库计量 API 来检索集群中的存储库计量信息。此 API 公开单调不减的计数器,并且预计客户端将持久存储计算一段时间内聚合所需的信息。此外,此 API 公开的信息是易失的,这意味着在节点重启后它将不存在。
client.nodes.getRepositoriesMeteringInfo({ node_id })
参数
编辑-
请求 (对象)
-
node_id
(字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表。所有节点选择选项都在[此处](https://elastic.ac.cn/guide/en/elasticsearch/reference/current/cluster.html#cluster-nodes)进行了解释。
-
hot_threads
编辑此 API 会在集群中每个选定节点上生成热线程的细目分类。输出是纯文本,其中包含每个节点的热门热线程的细目分类。
client.nodes.hotThreads({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表。 -
ignore_idle_threads
(可选, 布尔值): 如果为 true,则会过滤掉已知的空闲线程(例如,在套接字选择中等待,或从空队列中获取任务)。 -
interval
(可选, 字符串 | -1 | 0): 执行第二次线程采样的间隔。 -
snapshots
(可选, 数字): 线程堆栈跟踪的采样次数。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
threads
(可选, 数字): 指定提供信息的活跃线程的数量。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
type
(可选, 枚举("cpu" | "wait" | "block" | "gpu" | "mem")): 要采样的类型。 -
sort
(可选, 枚举("cpu" | "wait" | "block" | "gpu" | "mem")): cpu 类型的排序顺序(默认:total)。
-
信息
编辑返回集群节点信息。
client.nodes.info({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表。 -
metric
(可选, 字符串 | 字符串数组): 将返回的信息限制为特定指标。支持列表,例如 http、ingest。 -
flat_settings
(可选,布尔值): 如果为 true,则以平面格式返回设置。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
reload_secure_settings
编辑重新加载集群中节点上的密钥库。
client.nodes.reloadSecureSettings({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 要定位的集群中特定节点的名称。 -
secure_settings_password
(可选, 字符串): Elasticsearch 密钥库的密码。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
统计信息
编辑返回集群节点统计信息。
client.nodes.stats({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表。 -
metric
(可选, string | string[]): 将返回的信息限制为指定的指标 -
index_metric
(可选, 字符串 | 字符串数组): 将索引指标返回的信息限制为特定的索引指标。仅当指定了索引(或全部)指标时才可以使用。 -
completion_fields
(可选, 字符串 | 字符串数组):要包含在 fielddata 和 suggest 统计信息中的字段列表或通配符表达式。 -
fielddata_fields
(可选, 字符串 | 字符串数组):要包含在 fielddata 统计信息中的字段列表或通配符表达式。 -
fields
(可选,字符串 | 字符串[]): 要包含在统计信息中的字段的列表或通配符表达式。 -
groups
(可选, 布尔值): 要包含在搜索统计信息中的搜索组列表。 -
include_segment_file_sizes
(可选, 布尔值):如果为 true,则该调用会报告每个 Lucene 索引文件的聚合磁盘使用情况(仅当请求段统计信息时适用)。 -
level
(可选, 枚举("cluster" | "indices" | "shards")):指示统计信息是在集群级别、索引级别还是分片级别聚合。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
types
(可选, 字符串数组): 索引指标的文档类型列表。 -
include_unloaded_segments
(可选, 布尔值): 如果为true
,则响应包括未加载到内存中的段的信息。
-
使用情况
编辑返回有关功能使用情况的信息。
client.nodes.usage({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表;使用_local
返回来自您正在连接的节点的信息,留空以获取来自所有节点的信息 -
metric
(可选, 字符串 | 字符串数组): 将返回的信息限制为特定指标。以下选项的列表:_all
,rest_actions
。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
查询规则
编辑删除规则
编辑删除查询规则。删除查询规则集中的查询规则。
client.queryRules.deleteRule({ ruleset_id, rule_id })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 包含要删除的规则的查询规则集的唯一标识符 -
rule_id
(字符串): 要删除的指定规则集中查询规则的唯一标识符
-
删除规则集
编辑删除查询规则集。
client.queryRules.deleteRuleset({ ruleset_id })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 要删除的查询规则集的唯一标识符
-
获取规则
编辑获取查询规则。获取有关查询规则集中查询规则的详细信息。
client.queryRules.getRule({ ruleset_id, rule_id })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 包含要检索的规则的查询规则集的唯一标识符 -
rule_id
(字符串): 要检索的指定规则集中查询规则的唯一标识符
-
获取规则集
编辑获取查询规则集。获取有关查询规则集的详细信息。
client.queryRules.getRuleset({ ruleset_id })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 查询规则集的唯一标识符
-
列出规则集
编辑获取所有查询规则集。获取有关查询规则集的摘要信息。
client.queryRules.listRulesets({ ... })
参数
编辑-
请求 (对象)
-
from
(可选, 数字): 起始偏移量(默认为 0) -
size
(可选, 数字): 指定要获取的最大结果数
-
放置规则
编辑创建或更新查询规则。在查询规则集中创建或更新查询规则。
client.queryRules.putRule({ ruleset_id, rule_id, type, criteria, actions })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 包含要创建或更新的规则的查询规则集的唯一标识符 -
rule_id
(字符串): 要创建或更新的指定规则集中查询规则的唯一标识符 -
type
(枚举("pinned" | "exclude")) -
criteria
({ type, metadata, values } | { type, metadata, values }[]) -
actions
({ ids, docs }) -
priority
(可选, 数字)
-
放置规则集
编辑创建或更新查询规则集。
client.queryRules.putRuleset({ ruleset_id, rules })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 要创建或更新的查询规则集的唯一标识符 -
rules
({ rule_id, type, criteria, actions, priority } | { rule_id, type, criteria, actions, priority }[])
-
测试
编辑测试查询规则集。根据查询规则集评估匹配条件,以确定与该条件匹配的规则。
client.queryRules.test({ ruleset_id, match_criteria })
参数
编辑-
请求 (对象)
-
ruleset_id
(字符串): 要创建或更新的查询规则集的唯一标识符 -
match_criteria
(Record<string, 用户定义的值>)
-
汇总
编辑删除作业
编辑删除现有汇总作业。
client.rollup.deleteJob({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 作业的标识符。
-
获取作业
编辑检索汇总作业的配置、统计信息和状态。
client.rollup.getJobs({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 汇总作业的标识符。如果它是_all
或省略,则 API 将返回所有汇总作业。
-
获取汇总能力
编辑返回已为特定索引或索引模式配置的任何汇总作业的功能。
client.rollup.getRollupCaps({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): 要返回汇总能力的索引、多个索引或索引模式。可以使用_all
从所有作业中获取汇总能力。
-
获取汇总索引能力
编辑返回汇总索引(例如,存储汇总数据的索引)内的所有作业的汇总能力。
client.rollup.getRollupIndexCaps({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 要检查汇总能力的数据流或索引。支持通配符 (*
) 表达式。
-
放置作业
编辑创建汇总作业。
client.rollup.putJob({ id, cron, groups, index_pattern, page_size, rollup_index })
参数
编辑-
请求 (对象)
-
id
(字符串): 汇总作业的标识符。它可以是任何字母数字字符串,并且唯一标识与汇总作业关联的数据。ID 是持久的;它与汇总的数据一起存储。如果您创建了一个作业,让它运行一段时间,然后删除该作业,则该作业汇总的数据仍然会与此作业 ID 关联。您不能创建具有相同 ID 的新作业,因为这可能会导致作业配置不匹配的问题。 -
cron
(字符串): 一个 cron 字符串,用于定义应该执行汇总作业的时间间隔。当间隔触发时,索引器会尝试汇总索引模式中的数据。cron 模式与正在汇总的数据的时间间隔无关。例如,您可能希望创建文档的每小时汇总,但只希望每天午夜运行索引器,如 cron 定义的那样。cron 模式的定义与 Watcher cron 计划的定义相同。 -
groups
({ date_histogram, histogram, terms }): 定义为此汇总作业定义的组字段和聚合。这些字段稍后可用于聚合到存储桶中。这些聚合和字段可以以任意组合使用。可以将组配置视为定义一组工具,这些工具稍后可以在聚合中用于对数据进行分区。与原始数据不同,我们必须提前考虑可能使用哪些字段和聚合。汇总提供了足够的灵活性,您只需确定需要哪些字段,而不是需要它们的顺序。 -
index_pattern
(字符串): 要汇总的索引或索引模式。支持通配符样式模式 (logstash-*
)。该作业尝试汇总整个索引或索引模式。 -
page_size
(数字): 在汇总索引器的每次迭代中处理的存储桶结果数。较大的值往往会执行得更快,但在处理期间需要更多的内存。此值对数据的汇总方式没有影响;它仅用于调整索引器的速度或内存成本。 -
rollup_index
(字符串): 包含汇总结果的索引。该索引可以与其他汇总作业共享。数据存储的方式不会干扰不相关的作业。 -
metrics
(可选, { field, metrics }[]): 定义要为每个分组元组收集的指标。默认情况下,只为每个组收集 doc_counts。为了使汇总有用,您通常会添加平均值、最小值、最大值等指标。指标是按字段定义的,对于每个字段,您配置应收集哪些指标。 -
timeout
(可选, 字符串 | -1 | 0): 等待请求完成的时间。 -
headers
(可选, Record<string, string | string[]>)
-
汇总搜索
编辑允许使用标准查询 DSL 搜索汇总的数据。
client.rollup.rollupSearch({ index })
参数
编辑-
请求 (对象)
-
index
(字符串 | 字符串数组): 允许使用标准查询 DSL 搜索汇总的数据。 -
aggregations
(可选, Record<string, { aggregations, meta, adjacency_matrix, auto_date_histogram, avg, avg_bucket, boxplot, bucket_script, bucket_selector, bucket_sort, bucket_count_ks_test, bucket_correlation, cardinality, categorize_text, children, composite, cumulative_cardinality, cumulative_sum, date_histogram, date_range, derivative, diversified_sampler, extended_stats, extended_stats_bucket, frequent_item_sets, filter, filters, geo_bounds, geo_centroid, geo_distance, geohash_grid, geo_line, geotile_grid, geohex_grid, global, histogram, ip_range, ip_prefix, inference, line, matrix_stats, max, max_bucket, median_absolute_deviation, min, min_bucket, missing, moving_avg, moving_percentiles, moving_fn, multi_terms, nested, normalize, parent, percentile_ranks, percentiles, percentiles_bucket, range, rare_terms, rate, reverse_nested, random_sampler, sampler, scripted_metric, serial_diff, significant_terms, significant_text, stats, stats_bucket, string_stats, sum, sum_bucket, terms, time_series, top_hits, t_test, top_metrics, value_count, weighted_avg, variable_width_histogram }>): 指定聚合。 -
query
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 指定一个 DSL 查询。 -
size
(可选, 数字): 如果设置,则必须为零,因为汇总是在预聚合数据上工作的。 -
rest_total_hits_as_int
(可选, 布尔值): 指示在 rest 搜索响应中,hits.total 应渲染为整数还是对象 -
typed_keys
(可选, 布尔值):指定是否应在响应中为聚合和建议器名称添加各自类型的前缀
-
start_job
编辑启动一个已存在且已停止的汇总作业。
client.rollup.startJob({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 汇总作业的标识符。
-
stop_job
编辑停止一个已存在且已启动的汇总作业。
client.rollup.stopJob({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 汇总作业的标识符。 -
timeout
(可选, 字符串 | -1 | 0): 如果wait_for_completion
为true
,则 API 会阻塞(最多)指定的持续时间,等待作业停止。如果超过timeout
时间,API 将抛出超时异常。 -
wait_for_completion
(可选, 布尔值): 如果设置为true
,则会导致 API 阻塞,直到索引器状态完全停止。如果设置为false
,则 API 会立即返回,并且索引器会在后台异步停止。
-
search_application
编辑delete
编辑删除搜索应用程序。删除搜索应用程序及其关联的别名。不会删除附加到搜索应用程序的索引。
client.searchApplication.delete({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要删除的搜索应用程序的名称
-
delete_behavioral_analytics
编辑删除行为分析集合。关联的数据流也会被删除。
client.searchApplication.deleteBehavioralAnalytics({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要删除的分析集合的名称
-
get
编辑获取搜索应用程序详细信息。
client.searchApplication.get({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 搜索应用程序的名称
-
get_behavioral_analytics
编辑获取行为分析集合。
client.searchApplication.getBehavioralAnalytics({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串数组): 用于限制返回信息的分析集合列表
-
list
编辑返回现有的搜索应用程序。
client.searchApplication.list({ ... })
参数
编辑-
请求 (对象)
-
q
(可选, 字符串): 使用 Lucene 查询字符串语法的查询。 -
from
(可选, 数字): 起始偏移量。 -
size
(可选, 数字): 指定要获取的最大结果数。
-
post_behavioral_analytics_event
编辑为现有集合创建行为分析事件。
client.searchApplication.postBehavioralAnalyticsEvent()
put
编辑创建或更新搜索应用程序。
client.searchApplication.put({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要创建或更新的搜索应用程序的名称。 -
search_application
(可选, { name, indices, updated_at_millis, analytics_collection_name, template }) -
create
(可选, 布尔值): 如果true
,则此请求不能替换或更新现有的搜索应用程序。
-
put_behavioral_analytics
编辑创建行为分析集合。
client.searchApplication.putBehavioralAnalytics({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要创建或更新的分析集合的名称。
-
render_query
编辑为给定的搜索应用程序搜索参数呈现查询
client.searchApplication.renderQuery()
search
编辑运行搜索应用程序搜索。生成并运行一个 Elasticsearch 查询,该查询使用指定的查询参数和与搜索应用程序关联的搜索模板或默认模板。如果适用,未指定的模板参数将被分配其默认值。
client.searchApplication.search({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 要搜索的搜索应用程序的名称。 -
params
(可选, Record<string, 用户定义值>): 此请求特定的查询参数,它将覆盖模板中指定的任何默认值。 -
typed_keys
(可选, 布尔值): 确定响应中聚合名称是否以其各自的类型作为前缀。
-
searchable_snapshots
编辑cache_stats
编辑检索有关可搜索快照的节点级缓存统计信息。
client.searchableSnapshots.cacheStats({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选, 字符串 | 字符串数组): 用于限制返回信息的节点 ID 或名称列表;使用_local
返回来自您正在连接的节点的信息,留空以获取来自所有节点的信息 -
master_timeout
(可选, 字符串 | -1 | 0)
-
clear_cache
编辑清除可搜索快照的缓存。
client.searchableSnapshots.clearCache({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 索引名称列表 -
expand_wildcards
(可选, 枚举("all" | "open" | "closed" | "hidden" | "none") | 枚举("all" | "open" | "closed" | "hidden" | "none")[]):是否将通配符表达式扩展为已打开、已关闭或两者兼具的具体索引。 -
allow_no_indices
(可选, 布尔值):当通配符索引表达式解析为无具体索引时是否忽略。(这包括_all
字符串或未指定索引的情况) -
ignore_unavailable
(可选, 布尔值):当指定的具体索引不可用(丢失或关闭)时是否应忽略 -
pretty
(可选, 布尔值) -
human
(可选, 布尔值)
-
mount
编辑将快照挂载为可搜索索引。
client.searchableSnapshots.mount({ repository, snapshot, index })
参数
编辑-
请求 (对象)
-
repository
(字符串): 包含要挂载的索引快照的存储库的名称 -
snapshot
(字符串): 要挂载的索引快照的名称 -
index
(字符串) -
renamed_index
(可选, 字符串) -
index_settings
(可选, Record<string, 用户定义值>) -
ignore_index_settings
(可选, 字符串数组) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
wait_for_completion
(可选, 布尔值): 此请求是否应等待操作完成才返回 -
storage
(可选, 字符串): 选择用于加速搜索的本地存储类型。实验性的,默认为full_copy
-
stats
编辑检索有关可搜索快照的分片级统计信息。
client.searchableSnapshots.stats({ ... })
参数
编辑-
请求 (对象)
-
index
(可选, 字符串 | 字符串数组): 索引名称列表 -
level
(可选, 枚举("cluster" | "indices" | "shards")): 返回在集群、索引或分片级别聚合的统计信息
-
security
编辑activate_user_profile
编辑激活用户个人资料。
代表其他用户创建或更新用户个人资料。
client.security.activateUserProfile({ grant_type })
参数
编辑-
请求 (对象)
-
grant_type
(枚举("password" | "access_token")) -
access_token
(可选, 字符串) -
password
(可选, 字符串) -
username
(可选, 字符串)
-
authenticate
编辑验证用户身份。
验证用户身份并返回有关已验证用户的信息。在 [基本授权标头](https://en.wikipedia.org/wiki/Basic_access_authentication) 中包含用户信息。成功的调用会返回一个 JSON 结构,其中显示用户信息,例如用户名、分配给用户的角色、任何分配的元数据以及有关验证和授权用户的领域的信息。如果无法验证用户身份,则此 API 将返回 401 状态代码。
client.security.authenticate()
bulk_delete_role
编辑批量删除角色。
角色管理 API 通常是管理角色的首选方法,而不是使用基于文件的角色管理。批量删除角色 API 不能删除在角色文件中定义的角色。
client.security.bulkDeleteRole({ names })
参数
编辑-
请求 (对象)
-
names
(字符串数组): 要删除的角色名称数组 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
bulk_put_role
编辑批量创建或更新角色。
角色管理 API 通常是管理角色的首选方法,而不是使用基于文件的角色管理。批量创建或更新角色 API 不能更新在角色文件中定义的角色。
client.security.bulkPutRole({ roles })
参数
编辑-
请求 (对象)
-
roles
(Record<string, { cluster, indices, remote_indices, remote_cluster, global, applications, metadata, run_as, description, restriction, transient_metadata }>): 要添加或更新的角色名称到 RoleDescriptor 对象的字典 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
bulk_update_api_keys
编辑更新多个现有 API 密钥的属性。
client.security.bulkUpdateApiKeys()
change_password
编辑更改密码。
更改本地领域中用户和内置用户的密码。
client.security.changePassword({ ... })
参数
编辑-
请求 (对象)
-
username
(可选, 字符串): 您要更改密码的用户。如果您不指定此参数,则会更改当前用户的密码。 -
password
(可选, 字符串): 新密码值。密码长度必须至少为 6 个字符。 -
password_hash
(可选, 字符串): 新密码值的哈希值。这必须使用与为密码存储配置的相同的哈希算法生成。有关更多详细信息,请参阅对xpack.security.authc.password_hashing.algorithm
设置的解释。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
clear_api_key_cache
编辑清除 API 密钥缓存。
从 API 密钥缓存中删除所有条目的子集。当安全索引的状态更改时,缓存也会自动清除。
client.security.clearApiKeyCache({ ids })
参数
编辑-
请求 (对象)
-
ids
(字符串 | 字符串数组): 要从 API 密钥缓存中删除的 API 密钥 ID 列表。要删除所有 API 密钥,请使用*
。不支持其他通配符模式。
-
clear_cached_privileges
编辑清除权限缓存。
从本机应用程序权限缓存中删除权限。对于更新了权限的应用程序,也会自动清除缓存。
client.security.clearCachedPrivileges({ application })
参数
编辑-
请求 (对象)
-
application
(字符串): 应用程序名称列表
-
clear_cached_realms
编辑清除用户缓存。
从用户缓存中删除用户。您可以完全清除缓存或删除特定用户。
client.security.clearCachedRealms({ realms })
参数
编辑-
请求 (对象)
-
realms
(字符串 | 字符串数组): 要清除的领域列表 -
usernames
(可选, 字符串数组): 要从缓存中清除的用户名列表
-
清除缓存的角色
编辑清除角色缓存。
从本地角色缓存中清除角色。
client.security.clearCachedRoles({ name })
参数
编辑-
请求 (对象)
-
name
(字符串 | 字符串数组): 角色名称
-
清除缓存的服务令牌
编辑清除服务帐户令牌缓存。
从服务帐户令牌缓存中清除所有条目的子集。
client.security.clearCachedServiceTokens({ namespace, service, name })
参数
编辑-
请求 (对象)
-
namespace
(字符串): 命名空间的标识符 -
service
(字符串): 服务名称的标识符 -
name
(字符串 | 字符串数组): 服务令牌名称列表
-
创建 API 密钥
编辑创建 API 密钥。
创建无需基本身份验证即可访问的 API 密钥。成功请求返回一个 JSON 结构,其中包含 API 密钥、其唯一 ID 和名称。如果适用,它还会返回 API 密钥的到期信息(以毫秒为单位)。注意:默认情况下,API 密钥永不过期。您可以在创建 API 密钥时指定到期信息。
client.security.createApiKey({ ... })
参数
编辑-
请求 (对象)
-
expiration
(可选, 字符串 | -1 | 0): API 密钥的到期时间。默认情况下,API 密钥永不过期。 -
name
(可选, 字符串): 指定此 API 密钥的名称。 -
role_descriptors
(可选, Record<string, { cluster, indices, remote_indices, remote_cluster, global, applications, metadata, run_as, description, restriction, transient_metadata }>): 此 API 密钥的角色描述符数组。此参数是可选的。如果未指定或为空数组,则 API 密钥将具有经过身份验证的用户权限的时间点快照。如果提供角色描述符,则生成的权限将是 API 密钥权限和经过身份验证的用户权限的交集,从而限制 API 密钥的访问范围。角色描述符的结构与创建角色 API 的请求相同。有关更多详细信息,请参阅创建或更新角色 API。 -
metadata
(可选, Record<string, 用户定义的值>): 您要与 API 密钥关联的任意元数据。它支持嵌套数据结构。在元数据对象中,以_
开头的键保留供系统使用。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
创建跨集群 API 密钥
编辑创建跨集群 API 密钥。
创建 cross_cluster
类型的 API 密钥,用于基于 API 密钥的远程集群访问。cross_cluster
API 密钥不能用于通过 REST 接口进行身份验证。
要验证此请求,您必须使用不是 API 密钥的凭据。即使您使用具有所需权限的 API 密钥,该 API 也会返回错误。
跨集群 API 密钥由 Elasticsearch API 密钥服务创建,该服务会自动启用。
与 REST API 密钥不同,跨集群 API 密钥不捕获经过身份验证的用户的权限。API 密钥的有效权限与 access
属性指定的完全相同。
成功请求返回一个 JSON 结构,其中包含 API 密钥、其唯一 ID 和名称。如果适用,它还会返回 API 密钥的到期信息(以毫秒为单位)。
默认情况下,API 密钥永不过期。您可以在创建 API 密钥时指定到期信息。
跨集群 API 密钥只能使用更新跨集群 API 密钥 API 进行更新。尝试使用更新 REST API 密钥 API 或批量更新 REST API 密钥 API 更新它们将导致错误。
client.security.createCrossClusterApiKey({ access, name })
参数
编辑-
请求 (对象)
-
access
({ replication, search }): 授予此 API 密钥的访问权限。访问权限由跨集群搜索和跨集群复制的权限组成。必须指定至少其中一个。
-
不应为搜索或复制访问指定显式权限。创建过程会自动将访问规范转换为具有相应分配的相关权限的角色描述符。 name
(字符串): 指定此 API 密钥的名称。 expiration
(可选, 字符串 | -1 | 0): API 密钥的到期时间。默认情况下,API 密钥永不过期。 * *metadata
(可选, Record<string, 用户定义的值>): 您要与 API 密钥关联的任意元数据。它支持嵌套数据结构。在元数据对象中,以 _
开头的键保留供系统使用。
创建服务令牌
编辑创建服务帐户令牌。
创建无需基本身份验证即可访问的服务帐户令牌。
client.security.createServiceToken({ namespace, service })
参数
编辑-
请求 (对象)
-
namespace
(字符串): 命名空间的标识符 -
service
(字符串): 服务名称的标识符 -
name
(可选, 字符串): 令牌名称的标识符 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,则刷新受影响的分片以使此操作对搜索可见;如果wait_for
(默认值),则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。
-
删除权限
编辑删除应用程序权限。
client.security.deletePrivileges({ application, name })
参数
编辑-
请求 (对象)
-
application
(字符串): 应用程序名称 -
name
(字符串 | 字符串数组): 权限名称 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
删除角色
编辑删除角色。
删除本地领域中的角色。
client.security.deleteRole({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 角色名称 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
删除角色映射
编辑删除角色映射。
client.security.deleteRoleMapping({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 角色映射名称 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
删除服务令牌
编辑删除服务帐户令牌。
删除指定命名空间中服务的服务帐户令牌。
client.security.deleteServiceToken({ namespace, service, name })
参数
编辑-
请求 (对象)
-
namespace
(字符串): 命名空间的标识符 -
service
(字符串): 服务名称的标识符 -
name
(字符串): 令牌名称的标识符 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
,则刷新受影响的分片以使此操作对搜索可见;如果wait_for
(默认值),则等待刷新以使此操作对搜索可见;如果false
,则不对刷新执行任何操作。
-
删除用户
编辑删除用户。
从本地领域中删除用户。
client.security.deleteUser({ username })
参数
编辑-
请求 (对象)
-
username
(字符串): 用户名 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
禁用用户
编辑禁用用户。
禁用本地领域中的用户。
client.security.disableUser({ username })
参数
编辑-
请求 (对象)
-
username
(字符串): 要禁用的用户的用户名 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
禁用用户配置文件
编辑禁用用户配置文件。
禁用用户配置文件,使其在用户配置文件搜索中不可见。
client.security.disableUserProfile({ uid })
参数
编辑-
请求 (对象)
-
uid
(字符串): 用户配置文件的唯一标识符。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见;如果为 wait_for,则等待刷新以使此操作对搜索可见;如果为 false,则不进行任何刷新操作。
-
启用用户
编辑启用用户。
启用本地领域中的用户。
client.security.enableUser({ username })
参数
编辑-
请求 (对象)
-
username
(字符串): 要启用的用户的用户名 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
启用用户配置文件
编辑启用用户配置文件。
启用用户配置文件,使其在用户配置文件搜索中可见。
client.security.enableUserProfile({ uid })
参数
编辑-
请求 (对象)
-
uid
(字符串): 用户配置文件的唯一标识符。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见;如果为 wait_for,则等待刷新以使此操作对搜索可见;如果为 false,则不进行任何刷新操作。
-
注册 Kibana
编辑注册 Kibana。
启用 Kibana 实例以配置其自身,以便与安全的 Elasticsearch 集群进行通信。
client.security.enrollKibana()
注册节点
编辑注册节点。
注册一个新节点,使其能够加入启用了安全功能的现有集群。
client.security.enrollNode()
获取 API 密钥
编辑获取 API 密钥信息。
检索一个或多个 API 密钥的信息。注意:如果您只有 manage_own_api_key
权限,则此 API 仅返回您拥有的 API 密钥。如果您具有 read_security
、manage_api_key
或更高的权限(包括 manage_security
),则此 API 会返回所有 API 密钥,无论所有权如何。
client.security.getApiKey({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串): API 密钥 ID。此参数不能与name
、realm_name
或username
中的任何一个一起使用。 -
name
(可选, 字符串): API 密钥名称。此参数不能与id
、realm_name
或username
中的任何一个一起使用。它支持使用通配符进行前缀搜索。 -
owner
(可选, 布尔值): 可用于查询当前经过身份验证的用户拥有的 API 密钥的布尔标志。当此参数设置为true
时,不能指定realm_name
或username
参数,因为它们被假定为当前经过身份验证的参数。 -
realm_name
(可选, 字符串): 身份验证领域的名称。此参数不能与id
或name
一起使用,也不能在owner
标志设置为true
时使用。 -
username
(可选, 字符串): 用户的用户名。此参数不能与id
或name
一起使用,也不能在owner
标志设置为true
时使用。 -
with_limited_by
(可选, 布尔值): 返回与 API 密钥关联的所有者用户的角色描述符的快照。API 密钥的实际权限是其分配的角色描述符和所有者用户的角色描述符的交集。 -
active_only
(可选, 布尔值): 可用于查询当前处于活动状态的 API 密钥的布尔标志。如果 API 密钥在查询时既未失效也未过期,则认为该 API 密钥处于活动状态。您可以与其他参数(例如owner
或name
)一起指定此参数。如果active_only
为 false,则响应将包括活动和非活动(过期或失效)密钥。 -
with_profile_uid
(可选, 布尔值): 确定是否还检索 API 密钥所有者主体的配置文件 UID(如果存在)。
-
获取内置权限
编辑获取内置权限。
获取此 Elasticsearch 版本中可用的集群权限和索引权限列表。
client.security.getBuiltinPrivileges()
获取权限
编辑获取应用程序权限。
client.security.getPrivileges({ ... })
参数
编辑-
请求 (对象)
-
application
(可选, 字符串): 应用程序名称 -
name
(可选, 字符串 | 字符串数组): 权限名称
-
获取角色
编辑获取角色。
获取本地领域中的角色。角色管理 API 通常是管理角色的首选方法,而不是使用基于文件的角色管理。获取角色 API 无法检索在角色文件中定义的角色。
client.security.getRole({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串 | 字符串数组): 角色的名称。您可以将多个角色指定为一个列表。如果您不指定此参数,API 将返回有关所有角色的信息。
-
get_role_mapping
编辑获取角色映射。
角色映射定义了将哪些角色分配给每个用户。角色映射 API 通常是管理角色映射的首选方法,而不是使用角色映射文件。get role mappings API 无法检索在角色映射文件中定义的角色映射。
client.security.getRoleMapping({ ... })
参数
编辑-
请求 (对象)
-
name
(可选, 字符串 | 字符串数组): 标识角色映射的唯一名称。该名称仅用作通过 API 进行交互的标识符;它不会以任何方式影响映射的行为。您可以将多个映射名称指定为一个列表。如果您不指定此参数,API 将返回有关所有角色映射的信息。
-
get_service_accounts
编辑获取服务帐户。
获取与提供的路径参数匹配的服务帐户列表。
client.security.getServiceAccounts({ ... })
参数
编辑-
请求 (对象)
-
namespace
(可选, 字符串): 命名空间的名称。省略此参数以检索有关所有服务帐户的信息。如果您省略此参数,则还必须省略service
参数。 -
service
(可选, 字符串): 服务的名称。省略此参数以检索有关属于指定namespace
的所有服务帐户的信息。
-
get_service_credentials
编辑获取服务帐户凭据。
client.security.getServiceCredentials({ namespace, service })
参数
编辑-
请求 (对象)
-
namespace
(字符串): 命名空间的名称。 -
service
(字符串): 服务的名称。
-
get_settings
编辑检索安全系统索引的设置
client.security.getSettings()
get_token
编辑获取令牌。
创建无需基本身份验证即可访问的持有者令牌。
client.security.getToken({ ... })
参数
编辑-
请求 (对象)
-
grant_type
(可选, 枚举("password" | "client_credentials" | "_kerberos" | "refresh_token")) -
scope
(可选, 字符串) -
password
(可选, 字符串) -
kerberos_ticket
(可选, 字符串) -
refresh_token
(可选, 字符串) -
username
(可选, 字符串)
-
get_user
编辑获取用户。
获取有关本机领域和内置用户中用户的信息。
client.security.getUser({ ... })
参数
编辑-
请求 (对象)
-
username
(可选, 字符串 | 字符串数组): 用户的标识符。您可以将多个用户名指定为一个列表。如果您省略此参数,API 将检索有关所有用户的信息。 -
with_profile_uid
(可选, 布尔值): 如果为 true,则返回用户的用户配置文件 ID(如果有)。
-
get_user_privileges
编辑获取用户权限。
client.security.getUserPrivileges({ ... })
参数
编辑-
请求 (对象)
-
application
(可选, 字符串): 应用程序的名称。应用程序权限始终与一个应用程序关联。如果您不指定此参数,API 将返回有关所有应用程序的所有权限的信息。 -
priviledge
(可选, 字符串): 权限的名称。如果您不指定此参数,API 将返回有关请求的应用程序的所有权限的信息。 -
username
(可选, 字符串 | null)
-
get_user_profile
编辑获取用户配置文件。
使用唯一配置文件 ID 获取用户的配置文件。
client.security.getUserProfile({ uid })
参数
编辑-
请求 (对象)
-
uid
(字符串 | 字符串数组): 用户配置文件的唯一标识符。 -
data
(可选, 字符串 | 字符串数组): 配置文件文档的data
字段的过滤器列表。要返回所有内容,请使用data=*
。要返回内容的子集,请使用data=<key>
来检索指定<key>
下嵌套的内容。默认情况下,不返回任何data
内容。
-
grant_api_key
编辑授予 API 密钥。
代表另一个用户创建 API 密钥。此 API 与创建 API 密钥 API 类似,但它为与运行 API 的用户不同的用户创建 API 密钥。调用者必须拥有要为其创建 API 密钥的用户的身份验证凭据(访问令牌或用户名和密码)。无法使用此 API 在没有该用户的凭据的情况下创建 API 密钥。提供身份验证凭据的用户可以选择“以其他用户身份运行”(模拟)。在这种情况下,将代表模拟用户创建 API 密钥。
此 API 旨在供需要为最终用户创建和管理 API 密钥,但无法保证这些用户有权自行创建 API 密钥的应用程序使用。
成功的授予 API 密钥 API 调用会返回一个 JSON 结构,其中包含 API 密钥、其唯一 ID 和名称。如果适用,它还会返回 API 密钥的过期信息(以毫秒为单位)。
默认情况下,API 密钥永不过期。您可以在创建 API 密钥时指定到期信息。
client.security.grantApiKey({ api_key, grant_type })
参数
编辑-
请求 (对象)
-
api_key
({ name, expiration, role_descriptors, metadata }): 定义 API 密钥。 -
grant_type
(枚举("access_token" | "password")): 授权类型。支持的授权类型为:access_token
、password
。 -
access_token
(可选, 字符串): 用户的访问令牌。如果您指定access_token
授权类型,则此参数是必需的。它与其他授权类型无效。 -
username
(可选, 字符串): 标识用户的用户名。如果您指定password
授权类型,则此参数是必需的。它与其他授权类型无效。 -
password
(可选, 字符串): 用户的密码。如果您指定password
授权类型,则此参数是必需的。它与其他授权类型无效。 -
run_as
(可选, 字符串): 要模拟的用户的名称。
-
has_privileges
编辑检查用户权限。
确定指定用户是否具有指定的权限列表。
client.security.hasPrivileges({ ... })
参数
编辑-
请求 (对象)
-
user
(可选, 字符串): 用户名 -
application
(可选, { application, privileges, resources }[]) -
cluster
(可选, 枚举("all" | "cancel_task" | "create_snapshot" | "cross_cluster_replication" | "cross_cluster_search" | "delegate_pki" | "grant_api_key" | "manage" | "manage_api_key" | "manage_autoscaling" | "manage_behavioral_analytics" | "manage_ccr" | "manage_data_frame_transforms" | "manage_data_stream_global_retention" | "manage_enrich" | "manage_ilm" | "manage_index_templates" | "manage_inference" | "manage_ingest_pipelines" | "manage_logstash_pipelines" | "manage_ml" | "manage_oidc" | "manage_own_api_key" | "manage_pipeline" | "manage_rollup" | "manage_saml" | "manage_search_application" | "manage_search_query_rules" | "manage_search_synonyms" | "manage_security" | "manage_service_account" | "manage_slm" | "manage_token" | "manage_transform" | "manage_user_profile" | "manage_watcher" | "monitor" | "monitor_data_frame_transforms" | "monitor_data_stream_global_retention" | "monitor_enrich" | "monitor_inference" | "monitor_ml" | "monitor_rollup" | "monitor_snapshot" | "monitor_stats" | "monitor_text_structure" | "monitor_transform" | "monitor_watcher" | "none" | "post_behavioral_analytics_event" | "read_ccr" | "read_fleet_secrets" | "read_ilm" | "read_pipeline" | "read_security" | "read_slm" | "transport_client" | "write_connector_secrets" | "write_fleet_secrets")[]): 您要检查的群集权限列表。 -
index
(可选, { names, privileges, allow_restricted_indices }[])
-
has_privileges_user_profile
编辑检查用户配置文件权限。
确定与指定用户配置文件 ID 关联的用户是否具有所有请求的权限。
client.security.hasPrivilegesUserProfile({ uids, privileges })
参数
编辑-
请求 (对象)
-
uids
(字符串数组): 配置文件 ID 的列表。将为配置文件的关联用户检查权限。 -
privileges
({ application, cluster, index })
-
invalidate_api_key
编辑使 API 密钥失效。
此 API 使通过创建 API 密钥或授予 API 密钥 API 创建的 API 密钥失效。失效的 API 密钥无法进行身份验证,但它们仍然可以使用获取 API 密钥信息和查询 API 密钥信息 API 进行查看,至少在配置的保留期内,直到它们被自动删除。manage_api_key
权限允许删除任何 API 密钥。manage_own_api_key
只允许删除用户拥有的 API 密钥。此外,使用 manage_own_api_key
权限,必须以以下三种格式之一发出失效请求:- 设置参数 owner=true
。- 或者,将 username
和 realm_name
设置为与用户的身份匹配。- 或者,如果请求由 API 密钥发出,也就是说 API 密钥使其自身失效,请在 ids
字段中指定其 ID。
client.security.invalidateApiKey({ ... })
参数
编辑-
请求 (对象)
-
id
(可选, 字符串) -
ids
(可选, 字符串数组): API 密钥 ID 的列表。此参数不能与name
、realm_name
或username
一起使用。 -
name
(可选, 字符串): API 密钥名称。此参数不能与ids
、realm_name
或username
一起使用。 -
owner
(可选,布尔值):可用于查询当前已验证用户拥有的 API 密钥。当此参数设置为true
时,不能指定realm_name
或username
参数,因为它们被假定为当前已验证的用户。 -
realm_name
(可选,字符串):身份验证领域的名称。此参数不能与ids
或name
一起使用,也不能在owner
标志设置为true
时使用。 -
username
(可选,字符串):用户的用户名。此参数不能与ids
或name
一起使用,也不能在owner
标志设置为true
时使用。
-
invalidate_token
编辑使令牌失效。
get token API 返回的访问令牌具有有限的有效期。超过该时间段后,它们将无法再使用。该时间段由 xpack.security.authc.token.timeout
设置定义。
get token API 返回的刷新令牌仅在 24 小时内有效。它们也只能使用一次。如果您想立即使一个或多个访问令牌或刷新令牌失效,请使用此使令牌失效 API。
client.security.invalidateToken({ ... })
参数
编辑-
请求 (对象)
-
token
(可选,字符串) -
refresh_token
(可选, 字符串) -
realm_name
(可选,字符串) -
username
(可选, 字符串)
-
oidc_authenticate
编辑将 OpenID Connect 身份验证响应消息交换为 Elasticsearch 访问令牌和刷新令牌对
client.security.oidcAuthenticate()
oidc_logout
编辑使从 OpenID Connect Authenticate API 生成的刷新令牌和访问令牌失效
client.security.oidcLogout()
oidc_prepare_authentication
编辑创建 OAuth 2.0 身份验证请求作为 URL 字符串
client.security.oidcPrepareAuthentication()
put_privileges
编辑创建或更新应用程序权限。
client.security.putPrivileges({ ... })
参数
编辑-
请求 (对象)
-
privileges
(可选,Record<字符串, Record<字符串, { allocate, delete, downsample, freeze, forcemerge, migrate, readonly, rollover, set_priority, searchable_snapshot, shrink, unfollow, wait_for_snapshot }>>) -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
put_role
编辑创建或更新角色。
角色管理 API 通常是在本机领域中管理角色的首选方法,而不是使用基于文件的角色管理。创建或更新角色 API 不能更新在角色文件中定义的角色。基于文件的角色管理在 Elastic Serverless 中不可用。
client.security.putRole({ name })
参数
编辑-
请求 (对象)
-
name
(字符串):角色的名称。 -
applications
(可选,{ application, privileges, resources }[]):应用程序权限条目列表。 -
cluster
(可选,Enum("all" | "cancel_task" | "create_snapshot" | "cross_cluster_replication" | "cross_cluster_search" | "delegate_pki" | "grant_api_key" | "manage" | "manage_api_key" | "manage_autoscaling" | "manage_behavioral_analytics" | "manage_ccr" | "manage_data_frame_transforms" | "manage_data_stream_global_retention" | "manage_enrich" | "manage_ilm" | "manage_index_templates" | "manage_inference" | "manage_ingest_pipelines" | "manage_logstash_pipelines" | "manage_ml" | "manage_oidc" | "manage_own_api_key" | "manage_pipeline" | "manage_rollup" | "manage_saml" | "manage_search_application" | "manage_search_query_rules" | "manage_search_synonyms" | "manage_security" | "manage_service_account" | "manage_slm" | "manage_token" | "manage_transform" | "manage_user_profile" | "manage_watcher" | "monitor" | "monitor_data_frame_transforms" | "monitor_data_stream_global_retention" | "monitor_enrich" | "monitor_inference" | "monitor_ml" | "monitor_rollup" | "monitor_snapshot" | "monitor_stats" | "monitor_text_structure" | "monitor_transform" | "monitor_watcher" | "none" | "post_behavioral_analytics_event" | "read_ccr" | "read_fleet_secrets" | "read_ilm" | "read_pipeline" | "read_security" | "read_slm" | "transport_client" | "write_connector_secrets" | "write_fleet_secrets")[]):集群权限列表。这些权限定义了具有此角色的用户的集群级操作。 -
global
(可选,Record<字符串,用户定义的值>):定义全局权限的对象。全局权限是一种感知请求的集群权限。目前,全局权限的支持仅限于应用程序权限的管理。 -
indices
(可选,{ field_security, names, privileges, query, allow_restricted_indices }[]):索引权限条目列表。 -
remote_indices
(可选,{ clusters, field_security, names, privileges, query, allow_restricted_indices }[]):远程索引权限条目列表。 -
remote_cluster
(可选,{ clusters, privileges }[]):远程集群权限条目列表。 -
metadata
(可选,Record<字符串,用户定义的值>):可选元数据。在元数据对象中,以 下划线 (_
) 开头的键保留供系统使用。 -
run_as
(可选,字符串[]):此角色的所有者可以模拟的用户列表。注意:在 Serverless 中,run-as 功能已禁用。为了 API 兼容性,您仍然可以指定一个空的run_as
字段,但将拒绝非空列表。 -
description
(可选,字符串):角色描述符的可选描述 -
transient_metadata
(可选,Record<字符串,用户定义的值>):指示可能与当前集群许可证不兼容的角色,特别是具有文档和字段级安全性的角色。当集群许可证不允许给定角色的某些功能时,此参数将动态更新以列出不兼容的功能。如果enabled
为false
,则会忽略该角色,但仍会列在 authenticate API 的响应中。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
put_role_mapping
编辑创建或更新角色映射。
角色映射定义了为每个用户分配哪些角色。每个映射都有标识用户的规则和授予这些用户的角色列表。角色映射 API 通常是管理角色映射的首选方法,而不是使用角色映射文件。创建或更新角色映射 API 不能更新在角色映射文件中定义的角色映射。
此 API 不会创建角色。相反,它将用户映射到现有角色。可以使用创建或更新角色 API 或角色文件创建角色。
client.security.putRoleMapping({ name })
参数
编辑-
请求 (对象)
-
name
(字符串): 角色映射名称 -
enabled
(可选,布尔值) -
metadata
(可选,Record<字符串,用户定义的值>) -
roles
(可选,字符串[]) -
role_templates
(可选,{ format, template }[]) -
rules
(可选,{ any, all, field, except }) -
run_as
(可选,字符串[]) -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
put_user
编辑创建或更新用户。
添加新用户时需要密码,但在更新现有用户时是可选的。要在不更新任何其他字段的情况下更改用户的密码,请使用更改密码 API。
client.security.putUser({ username })
参数
编辑-
请求 (对象)
-
username
(字符串):用户的用户名 -
email
(可选,字符串 | null) -
full_name
(可选,字符串 | null) -
metadata
(可选,Record<字符串,用户定义的值>) -
password
(可选, 字符串) -
password_hash
(可选,字符串) -
roles
(可选,字符串[]) -
enabled
(可选,布尔值) -
refresh
(可选, 枚举(true | false | "wait_for")): 如果true
(默认值),则刷新受影响的分片以使此操作对搜索可见,如果wait_for
则等待刷新以使此操作对搜索可见,如果false
则不进行刷新操作。
-
query_api_keys
编辑使用查询查找 API 密钥。
获取 API 密钥及其信息的翻页列表。您可以选择使用查询来筛选结果。
client.security.queryApiKeys({ ... })
参数
编辑-
请求 (对象)
-
aggregations
(可选,Record<字符串,{ aggregations, meta, cardinality, composite, date_range, filter, filters, missing, range, terms, value_count }>):要在返回的 API 密钥语料库上运行的任何聚合。聚合和查询协同工作。聚合仅在与查询匹配的 API 密钥上计算。这仅支持聚合类型的一个子集,即:terms
、range
、date_range
、missing
、cardinality
、value_count
、composite
、filter
和filters
。此外,聚合仅在查询使用的同一字段子集上运行。 -
query
(可选,{ bool, exists, ids, match, match_all, prefix, range, simple_query_string, term, terms, wildcard }):用于筛选要返回的 API 密钥的查询。如果缺少 query 参数,则等效于match_all
查询。该查询支持查询类型的子集,包括match_all
、bool
、term
、terms
、match
、ids
、prefix
、wildcard
、exists
、range
和simple_query_string
。您可以查询与 API 密钥关联的以下公共信息:id
、type
、name
、creation
、expiration
、invalidated
、invalidation
、username
、realm
和metadata
。 -
from
(可选,数字):起始文档偏移量。默认情况下,您不能使用 from 和 size 参数翻页超过 10,000 个命中。要翻页更多命中,请使用search_after
参数。 -
sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]):除了id
之外,API 密钥的所有公共字段都符合排序条件。此外,排序也可以应用于_doc
字段以按索引顺序排序。 -
size
(可选,数字): 要返回的命中数。默认情况下,您不能使用from
和size
参数分页浏览超过 10,000 个命中结果。要分页浏览更多命中结果,请使用search_after
参数。 -
search_after
(可选,数字 | 数字 | 字符串 | 布尔值 | null | 用户定义值数组):定义搜索后。 -
with_limited_by
(可选, 布尔值): 返回与 API 密钥关联的所有者用户的角色描述符的快照。API 密钥的实际权限是其分配的角色描述符和所有者用户的角色描述符的交集。 -
with_profile_uid
(可选, 布尔值): 确定是否还检索 API 密钥所有者主体的配置文件 UID(如果存在)。 -
typed_keys
(可选, 布尔值): 确定响应中聚合名称是否以其各自的类型作为前缀。
-
query_role
编辑使用查询查找角色。
以分页方式获取角色。您可以选择使用查询来过滤结果。
client.security.queryRole({ ... })
参数
编辑-
请求 (对象)
-
query
(可选,{ bool, exists, ids, match, match_all, prefix, range, simple_query_string, term, terms, wildcard }):用于过滤要返回的角色的查询。如果缺少 query 参数,则等效于match_all
查询。该查询支持查询类型的子集,包括match_all
、bool
、term
、terms
、match
、ids
、prefix
、wildcard
、exists
、range
和simple_query_string
。您可以查询与角色关联的以下信息:name
、description
、metadata
、applications.application
、applications.privileges
、applications.resources
。 -
from
(可选,数字):起始文档偏移量。默认情况下,您不能使用 from 和 size 参数翻页超过 10,000 个命中。要翻页更多命中,请使用search_after
参数。 -
sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]):角色的所有公共字段都适合排序。此外,排序也可以应用于_doc
字段,以便按索引顺序排序。 -
size
(可选,数字): 要返回的命中数。默认情况下,您不能使用from
和size
参数分页浏览超过 10,000 个命中结果。要分页浏览更多命中结果,请使用search_after
参数。 -
search_after
(可选,数字 | 数字 | 字符串 | 布尔值 | null | 用户定义值数组):定义搜索后。
-
query_user
编辑使用查询查找用户。
以分页方式获取用户信息。您可以选择使用查询来过滤结果。
client.security.queryUser({ ... })
参数
编辑-
请求 (对象)
-
query
(可选,{ ids, bool, exists, match, match_all, prefix, range, simple_query_string, term, terms, wildcard }):用于过滤要返回的用户的查询。如果缺少 query 参数,则等效于match_all
查询。该查询支持查询类型的子集,包括match_all
、bool
、term
、terms
、match
、ids
、prefix
、wildcard
、exists
、range
和simple_query_string
。您可以查询与用户关联的以下信息:username
、roles
、enabled
-
from
(可选,数字):起始文档偏移量。默认情况下,您不能使用 from 和 size 参数翻页超过 10,000 个命中。要翻页更多命中,请使用search_after
参数。 -
sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]):适合排序的字段包括:username、roles、enabled。此外,排序也可以应用于_doc
字段,以便按索引顺序排序。 -
size
(可选,数字): 要返回的命中数。默认情况下,您不能使用from
和size
参数分页浏览超过 10,000 个命中结果。要分页浏览更多命中结果,请使用search_after
参数。 -
search_after
(可选,数字 | 数字 | 字符串 | 布尔值 | null | 用户定义值数组):定义搜索后。 -
with_profile_uid
(可选,布尔值):如果为 true,则会返回查询结果中用户的用户配置文件 ID(如果有)。
-
saml_authenticate
编辑验证 SAML。
向 Elasticsearch 提交 SAML 响应消息以供使用。
client.security.samlAuthenticate({ content, ids })
参数
编辑-
请求 (对象)
-
content
(字符串):SAML 响应,由用户的浏览器发送,通常是 Base64 编码的 XML 文档。 -
ids
(字符串 | 字符串数组):一个 JSON 数组,其中包含 API 调用者当前用户的所有有效 SAML 请求 ID。 -
realm
(可选,字符串):应该验证 SAML 响应的 realm 的名称。在定义了多个 SAML realm 的情况下很有用。
-
saml_complete_logout
编辑完全注销 SAML。
验证从 SAML IdP 发送的注销响应。
client.security.samlCompleteLogout({ realm, ids })
参数
编辑-
请求 (对象)
-
realm
(字符串):Elasticsearch 中 SAML realm 的名称,其配置用于验证注销响应。 -
ids
(字符串 | 字符串数组):一个 JSON 数组,其中包含 API 调用者当前用户的所有有效 SAML 请求 ID。 -
query_string
(可选,字符串):如果 SAML IdP 使用 HTTP-Redirect 绑定发送注销响应,则必须将此字段设置为重定向 URI 的查询字符串。 -
content
(可选,字符串):如果 SAML IdP 使用 HTTP-Post 绑定发送注销响应,则必须将此字段设置为注销响应中的 SAMLResponse 表单参数的值。
-
saml_invalidate
编辑使 SAML 失效。
向 Elasticsearch 提交 SAML LogoutRequest 消息以供使用。
client.security.samlInvalidate({ query_string })
参数
编辑-
请求 (对象)
-
query_string
(字符串):用户为启动单点注销而被 SAML IdP 重定向到的 URL 的查询部分。此查询应包含一个名为 SAMLRequest 的参数,该参数包含一个经过压缩和 Base64 编码的 SAML 注销请求。如果 SAML IdP 已对注销请求签名,则该 URL 应包含两个额外的参数,分别名为 SigAlg 和 Signature,其中包含用于签名的算法和签名值本身。为了使 Elasticsearch 能够验证 IdP 的签名,query_string 字段的值必须与浏览器提供的字符串完全匹配。客户端应用程序不得尝试以任何方式解析或处理该字符串。 -
acs
(可选,字符串):与 Elasticsearch 中应使用的 SAML realm 之一匹配的断言使用者服务 URL。您必须指定此参数或 realm 参数。 -
realm
(可选,字符串):Elasticsearch 中配置的 SAML realm 的名称。您必须指定此参数或 acs 参数。
-
saml_logout
编辑注销 SAML。
提交请求以使访问令牌和刷新令牌失效。
client.security.samlLogout({ token })
参数
编辑-
请求 (对象)
-
token
(字符串):作为调用 SAML 验证 API 的响应返回的访问令牌。或者,是使用 refresh_token 刷新原始令牌后收到的最新令牌。 -
refresh_token
(可选,字符串):作为调用 SAML 验证 API 的响应返回的刷新令牌。或者,是刷新原始访问令牌后收到的最新刷新令牌。
-
saml_prepare_authentication
编辑准备 SAML 身份验证。
根据 Elasticsearch 中相应 SAML realm 的配置,创建 SAML 身份验证请求 (<AuthnRequest>
) 作为 URL 字符串。
client.security.samlPrepareAuthentication({ ... })
参数
编辑-
请求 (对象)
-
acs
(可选,字符串):与 Elasticsearch 中 SAML realm 之一匹配的断言使用者服务 URL。该 realm 用于生成身份验证请求。您必须指定此参数或 realm 参数。 -
realm
(可选,字符串):Elasticsearch 中用于生成身份验证请求的 SAML realm 的名称。您必须指定此参数或 acs 参数。 -
relay_state
(可选,字符串):一个字符串,将包含在此 API 作为 RelayState 查询参数返回的重定向 URL 中。如果身份验证请求已签名,则此值将用作签名计算的一部分。
-
saml_service_provider_metadata
编辑创建 SAML 服务提供商元数据。
为 SAML 2.0 服务提供商生成 SAML 元数据。
client.security.samlServiceProviderMetadata({ realm_name })
参数
编辑-
请求 (对象)
-
realm_name
(字符串):Elasticsearch 中 SAML realm 的名称。
-
suggest_user_profiles
编辑建议用户个人资料。
获取与指定的搜索条件匹配的用户个人资料的建议。
client.security.suggestUserProfiles({ ... })
参数
编辑-
请求 (对象)
-
name
(可选,字符串):用于匹配用户个人资料文档中与名称相关的字段的查询字符串。与名称相关的字段包括用户的username
、full_name
和email
。 -
size
(可选,数字):要返回的个人资料的数量。 -
data
(可选, 字符串 | 字符串数组): 配置文件文档的data
字段的过滤器列表。要返回所有内容,请使用data=*
。要返回内容的子集,请使用data=<key>
来检索指定<key>
下嵌套的内容。默认情况下,不返回任何data
内容。 -
hint
(可选,{ uids, labels }):用于提高建议结果相关性的额外搜索条件。匹配指定 hint 的个人资料在响应中排名较高。不匹配 hint 的个人资料不会从响应中排除,只要该个人资料与name
字段查询匹配即可。
-
update_api_key
编辑更新 API 密钥。
更新现有 API 密钥的属性。用户只能更新他们创建或被授予给他们的 API 密钥。使用此 API 更新由 create API Key 或 grant API Key API 创建的 API 密钥。如果您需要对多个 API 密钥应用相同的更新,则可以使用批量更新 API 密钥来减少开销。无法更新过期的 API 密钥或被 invalidate API Key 失效的 API 密钥。此 API 支持更新 API 密钥的访问范围和元数据。API 密钥的访问范围源自您在请求中指定的 role_descriptors
,以及请求时所有者用户权限的快照。所有者权限的快照会在每次调用时自动更新。如果您在请求中未指定 role_descriptors
,则对此 API 的调用仍可能更改 API 密钥的访问范围。如果自创建或上次修改 API 密钥以来,所有者用户的权限已更改,则可能会发生此更改。要更新另一个用户的 API 密钥,请使用 run_as
功能代表另一个用户提交请求。重要提示:不可能使用 API 密钥作为此 API 的身份验证凭据。要更新 API 密钥,需要所有者用户的凭据。
client.security.updateApiKey({ id })
参数
编辑-
请求 (对象)
-
id
(字符串):要更新的 API 密钥的 ID。 -
role_descriptors
(可选, Record<string, { cluster, indices, remote_indices, remote_cluster, global, applications, metadata, run_as, description, restriction, transient_metadata }>): 此 API 密钥的角色描述符数组。此参数是可选的。如果未指定或为空数组,则 API 密钥将具有经过身份验证的用户权限的时间点快照。如果提供角色描述符,则生成的权限将是 API 密钥权限和经过身份验证的用户权限的交集,从而限制 API 密钥的访问范围。角色描述符的结构与创建角色 API 的请求相同。有关更多详细信息,请参阅创建或更新角色 API。 -
metadata
(可选,Record<string, 用户定义值>):您想要与 API 密钥关联的任意元数据。它支持嵌套的数据结构。在元数据对象中,以 _ 开头的键保留给系统使用。 -
expiration
(可选,字符串 | -1 | 0): API 密钥的过期时间。
-
update_cross_cluster_api_key
编辑更新跨集群 API 密钥。
更新现有跨集群 API 密钥的属性,该密钥用于基于 API 密钥的远程集群访问。
client.security.updateCrossClusterApiKey({ id, access })
参数
编辑-
请求 (对象)
-
id
(字符串): 要更新的跨集群 API 密钥的 ID。 -
access
({ replication, search }): 授予此 API 密钥的访问权限。访问权限由跨集群搜索和跨集群复制的权限组成。必须至少指定其中一个。指定后,新的访问分配将完全替换之前分配的访问权限。 -
expiration
(可选,字符串 | -1 | 0): API 密钥的过期时间。默认情况下,API 密钥永不过期。可以省略此属性以保持值不变。 -
metadata
(可选,Record<string, 用户定义的值>): 您希望与 API 密钥关联的任意元数据。它支持嵌套的数据结构。在元数据对象中,以_
开头的键保留供系统使用。指定后,此信息将完全替换以前与 API 密钥关联的元数据。
-
update_settings
编辑更新安全系统索引的设置
client.security.updateSettings()
update_user_profile_data
编辑更新用户配置文件数据。
更新与唯一 ID 关联的用户配置文件的特定数据。
client.security.updateUserProfileData({ uid })
参数
编辑-
请求 (对象)
-
uid
(字符串): 用户配置文件的唯一标识符。 -
labels
(可选,Record<string, 用户定义的值>): 您希望与用户配置文件关联的可搜索数据。此字段支持嵌套的数据结构。 -
data
(可选,Record<string, 用户定义的值>): 您希望与用户配置文件关联的不可搜索数据。此字段支持嵌套的数据结构。 -
if_seq_no
(可选, 数字): 仅当文档具有此序列号时才执行操作。 -
if_primary_term
(可选, 数字): 仅当文档具有此主要术语时才执行操作。 -
refresh
(可选, 枚举(true | false | "wait_for")): 如果为 true,则 Elasticsearch 会刷新受影响的分片,以使此操作对搜索可见;如果为 wait_for,则等待刷新以使此操作对搜索可见;如果为 false,则不进行任何刷新操作。
-
shutdown
编辑delete_node
编辑从关闭列表中删除节点。设计用于 ECE/ESS 和 ECK 的间接使用。不支持直接使用。
client.shutdown.deleteNode({ node_id })
参数
编辑-
请求 (对象)
-
node_id
(字符串): 要从关闭状态中删除的节点的节点 ID -
master_timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待与主节点建立连接的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。 -
timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待响应的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。
-
get_node
编辑检索当前标记为正在关闭的节点的状态。设计用于 ECE/ESS 和 ECK 的间接使用。不支持直接使用。
client.shutdown.getNode({ ... })
参数
编辑-
请求 (对象)
-
node_id
(可选,字符串 | 字符串[]): 要检索其关闭状态的节点 -
master_timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待与主节点建立连接的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。 -
timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待响应的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。
-
put_node
编辑添加要关闭的节点。设计用于 ECE/ESS 和 ECK 的间接使用。不支持直接使用。
client.shutdown.putNode({ node_id, type, reason })
参数
编辑-
请求 (对象)
-
node_id
(字符串): 要关闭的节点的节点 ID -
type
(枚举("restart" | "remove" | "replace")): 有效值为 restart、remove 或 replace。当您需要临时关闭节点以执行升级、进行配置更改或执行其他维护时,请使用 restart。由于该节点有望重新加入集群,因此不会将数据从该节点迁移出去。当您需要永久从集群中删除节点时,请使用 remove。在数据从节点迁移出去之前,不会将节点标记为已准备好关闭。使用 replace 来执行节点与另一个节点 1:1 的替换。为了真正替换源节点和目标节点,某些分配决策将被忽略(例如磁盘水位线)。在 replace 类型的关闭期间,滚动和索引创建可能会导致未分配的分片,并且收缩可能会失败,直到替换完成。 -
reason
(字符串): 节点正在关闭的人类可读原因。此字段为其他集群操作员提供信息;它不影响关闭过程。 -
allocation_delay
(可选,字符串): 仅当 type 为 restart 时有效。控制 Elasticsearch 在重新启动并加入集群之前等待节点重新启动并加入集群的时间,然后再将其分片重新分配给其他节点。它的工作方式与使用 index.unassigned.node_left.delayed_timeout 设置延迟分配相同。如果您同时指定了重新启动分配延迟和索引级分配延迟,则使用两者中较长的延迟。 -
target_node_name
(可选,字符串): 仅当 type 为 replace 时有效。指定替换正在关闭的节点的节点的名称。来自关闭节点的分片仅允许分配给目标节点,并且不会将其他数据分配给目标节点。在数据重新定位期间,某些分配规则将被忽略,例如磁盘水位线或用户属性筛选规则。 -
master_timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待与主节点建立连接的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。 -
timeout
(可选,枚举("nanos" | "micros" | "ms" | "s" | "m" | "h" | "d")): 等待响应的时间。如果在超时时间到期之前未收到响应,则请求失败并返回错误。
-
simulate
编辑ingest
编辑使用示例文档模拟运行 ingest。
client.simulate.ingest()
slm
编辑delete_lifecycle
编辑删除现有快照生命周期策略。
client.slm.deleteLifecycle({ policy_id })
参数
编辑-
请求 (对象)
-
policy_id
(字符串): 要删除的快照生命周期策略的 ID
-
execute_lifecycle
编辑根据生命周期策略立即创建快照,而无需等待计划的时间。
client.slm.executeLifecycle({ policy_id })
参数
编辑-
请求 (对象)
-
policy_id
(字符串): 要执行的快照生命周期策略的 ID
-
execute_retention
编辑删除根据策略的保留规则过期的任何快照。
client.slm.executeRetention()
get_lifecycle
编辑检索一个或多个快照生命周期策略定义以及有关最新快照尝试的信息。
client.slm.getLifecycle({ ... })
参数
编辑-
请求 (对象)
-
policy_id
(可选,字符串 | 字符串[]): 要检索的快照生命周期策略列表
-
get_stats
编辑返回有关快照生命周期管理所采取的措施的全局和策略级统计信息。
client.slm.getStats()
get_status
编辑检索快照生命周期管理 (SLM) 的状态。
client.slm.getStatus()
put_lifecycle
编辑创建或更新快照生命周期策略。
client.slm.putLifecycle({ policy_id })
参数
编辑-
请求 (对象)
-
policy_id
(字符串): 要创建或更新的快照生命周期策略的 ID。 -
config
(可选,{ ignore_unavailable, indices, include_global_state, feature_states, metadata, partial }): 策略创建的每个快照的配置。 -
name
(可选,字符串): 自动分配给策略创建的每个快照的名称。支持日期数学。为防止快照名称冲突,每个快照名称会自动附加一个 UUID。 -
repository
(可选,字符串): 用于存储此策略创建的快照的存储库。此存储库必须在策略创建之前存在。您可以使用快照存储库 API 创建存储库。 -
retention
(可选,{ expire_after, max_count, min_count }): 用于保留和删除策略创建的快照的保留规则。 -
schedule
(可选,字符串): 策略创建快照的定期或绝对计划。SLM 会立即应用计划更改。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
start
编辑启用快照生命周期管理 (SLM)。
client.slm.start()
stop
编辑关闭快照生命周期管理 (SLM)。
client.slm.stop()
snapshot
编辑cleanup_repository
编辑触发对快照存储库内容的审查,并删除现有快照未引用的任何过时数据。
client.snapshot.cleanupRepository({ repository })
参数
编辑-
请求 (对象)
-
repository
(字符串): 要清理的快照存储库。 -
master_timeout
(可选,字符串 | -1 | 0): 等待与主节点建立连接的时间。 -
timeout
(可选,字符串 | -1 | 0): 等待响应的时间。
-
clone
编辑将索引从同一存储库中的一个快照克隆到另一个快照中。
client.snapshot.clone({ repository, snapshot, target_snapshot, indices })
参数
编辑-
请求 (对象)
-
repository
(字符串): 存储库名称 -
snapshot
(字符串): 要从中克隆的快照的名称 -
target_snapshot
(字符串): 要创建的克隆快照的名称 -
indices
(字符串) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
timeout
(可选, 字符串 | -1 | 0)
-
create
编辑在存储库中创建快照。
client.snapshot.create({ repository, snapshot })
参数
编辑-
请求 (对象)
-
repository
(字符串): 快照的存储库。 -
snapshot
(string): 快照的名称。在存储库中必须是唯一的。 -
ignore_unavailable
(可选, 布尔值): 如果为true
,则请求会忽略indices
中丢失或关闭的数据流和索引。如果为false
,则请求会对任何丢失或关闭的数据流或索引返回错误。 -
include_global_state
(可选, 布尔值): 如果为true
,则快照中会包含当前集群状态。集群状态包括持久集群设置、可组合索引模板、旧版索引模板、摄取管道和 ILM 策略。它还包括存储在系统索引中的数据,例如 Watches 和任务记录(可通过feature_states
配置)。 -
indices
(可选, 字符串 | 字符串数组): 要包含在快照中的数据流和索引。支持多目标语法。默认包含所有数据流和索引。 -
feature_states
(可选, 字符串数组): 要包含在快照中的功能状态。每个功能状态包含一个或多个包含相关数据的系统索引。您可以使用 get features API 查看符合条件的功能列表。如果include_global_state
为true
,则默认包含所有当前功能状态。如果include_global_state
为false
,则默认不包含任何功能状态。 -
metadata
(可选, Record<string, 用户定义值>): 快照的可选元数据。可以包含任何内容。必须小于 1024 字节。此映射不是由 Elasticsearch 自动生成的。 -
partial
(可选, 布尔值): 如果为true
,则允许恢复包含不可用分片的索引的部分快照。只会恢复成功包含在快照中的分片。所有缺失的分片都将重新创建为空。如果为false
,则如果快照中包含的一个或多个索引不具有所有可用的主分片,则整个恢复操作将失败。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_completion
(可选, 布尔值): 如果为true
,则请求会在快照完成时返回响应。如果为false
,则请求会在快照初始化时返回响应。
-
create_repository
编辑创建一个存储库。
client.snapshot.createRepository({ repository })
参数
编辑-
请求 (对象)
-
repository
(字符串): 存储库名称 -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
timeout
(可选, string | -1 | 0): 显式操作超时 -
verify
(可选, 布尔值): 是否在创建后验证存储库
-
delete
编辑删除一个或多个快照。
client.snapshot.delete({ repository, snapshot })
参数
编辑-
请求 (对象)
-
repository
(字符串): 存储库名称 -
snapshot
(string): 快照名称列表 -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时
-
delete_repository
编辑删除一个存储库。
client.snapshot.deleteRepository({ repository })
参数
编辑-
请求 (对象)
-
repository
(string | string[]): 要取消注册的快照存储库的名称。支持通配符 (*
) 模式。 -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
get
编辑返回有关快照的信息。
client.snapshot.get({ repository, snapshot })
参数
编辑-
请求 (对象)
-
repository
(string): 用于限制请求的快照存储库名称列表。支持通配符 (*) 表达式。 -
snapshot
(string | string[]): 要检索的快照名称列表。也接受通配符 (*)。- 要获取有关已注册存储库中所有快照的信息,请使用通配符 (*) 或 _all。
- 要获取有关当前正在运行的任何快照的信息,请使用 _current。
-
ignore_unavailable
(可选, 布尔值): 如果为 false,则请求会对任何不可用的快照返回错误。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
verbose
(可选, 布尔值): 如果为 true,则返回有关每个快照的附加信息,例如获取快照的 Elasticsearch 版本、快照的开始和结束时间以及快照的分片数量。 -
index_details
(可选, 布尔值): 如果为 true,则返回快照中每个索引的附加信息,包括索引中的分片数量、索引的总大小(以字节为单位)以及索引中每个分片的最大段数。默认为 false,表示此信息被省略。 -
index_names
(可选, 布尔值): 如果为 true,则返回每个快照中每个索引的名称。 -
include_repository
(可选, 布尔值): 如果为 true,则在每个快照中返回存储库名称。 -
sort
(可选, 枚举("start_time" | "duration" | "name" | "index_count" | "repository" | "shard_count" | "failed_shard_count")): 允许为结果设置排序顺序。默认为 start_time,即按快照开始时间戳排序。 -
size
(可选, 数字): 要返回的最大快照数。默认为 0,表示返回所有与请求匹配的快照,不设限制。 -
order
(可选, 枚举("asc" | "desc")): 排序顺序。有效值为 asc(升序)和 desc(降序)。默认为 asc,表示升序。 -
after
(可选, 字符串): 开始分页的偏移标识符,由响应正文中的 next 字段返回。 -
offset
(可选, 数字): 根据与此请求匹配的快照开始分页的数字偏移量。为此参数使用非零值与使用 after 参数互斥。默认为 0。 -
from_sort_value
(可选, 字符串): 开始检索的当前排序列的值。当按快照或存储库名称排序时,可以是字符串快照或存储库名称;当按索引或分片计数排序时,可以是毫秒时间值或数字。 -
slm_policy_filter
(可选, 字符串): 按快照所属的 SLM 策略名称列表过滤快照。也接受通配符 (*) 和通配符后跟以 - 开头的排除模式的组合。要包含不是由 SLM 策略创建的快照,可以使用特殊模式 _none,它将匹配所有没有 SLM 策略的快照。
-
get_repository
编辑返回有关存储库的信息。
client.snapshot.getRepository({ ... })
参数
编辑-
请求 (对象)
-
repository
(可选, 字符串 | 字符串数组): 存储库名称列表 -
local
(可选, boolean): 返回本地信息,不要从主节点检索状态(默认值:false) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时
-
repository_analyze
编辑分析存储库的正确性和性能
client.snapshot.repositoryAnalyze()
restore
编辑恢复快照。
client.snapshot.restore({ repository, snapshot })
参数
编辑-
请求 (对象)
-
repository
(字符串): 存储库名称 -
snapshot
(string): 快照名称 -
feature_states
(可选, 字符串数组) -
ignore_index_settings
(可选, 字符串数组) -
ignore_unavailable
(可选, 布尔值) -
include_aliases
(可选, 布尔值) -
include_global_state
(可选, 布尔值) -
index_settings
(可选, { index, mode, routing_path, soft_deletes, sort, number_of_shards, number_of_replicas, number_of_routing_shards, check_on_startup, codec, routing_partition_size, load_fixed_bitset_filters_eagerly, hidden, auto_expand_replicas, merge, search, refresh_interval, max_result_window, max_inner_result_window, max_rescore_window, max_docvalue_fields_search, max_script_fields, max_ngram_diff, max_shingle_diff, blocks, max_refresh_listeners, analyze, highlight, max_terms_count, max_regex_length, routing, gc_deletes, default_pipeline, final_pipeline, lifecycle, provided_name, creation_date, creation_date_string, uuid, version, verified_before_close, format, max_slices_per_scroll, translog, query_string, priority, top_metrics_max_size, analysis, settings, time_series, queries, similarity, mapping, indexing.slowlog, indexing_pressure, store }) -
indices
(可选, 字符串 | 字符串数组) -
partial
(可选, 布尔值) -
rename_pattern
(可选, 字符串) -
rename_replacement
(可选, 字符串) -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
wait_for_completion
(可选, 布尔值): 此请求是否应等待操作完成才返回
-
status
编辑返回有关快照状态的信息。
client.snapshot.status({ ... })
参数
编辑-
请求 (对象)
-
repository
(可选, 字符串): 存储库名称 -
snapshot
(可选, 字符串 | 字符串数组): 快照名称列表 -
ignore_unavailable
(可选, 布尔值): 是否忽略不可用的快照,默认为 false,表示抛出 SnapshotMissingException 异常 -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时
-
verify_repository
编辑验证存储库。
client.snapshot.verifyRepository({ repository })
参数
编辑-
请求 (对象)
-
repository
(字符串): 存储库名称 -
master_timeout
(可选, string | -1 | 0): 用于连接到主节点的显式操作超时 -
timeout
(可选, string | -1 | 0): 显式操作超时
-
sql
编辑clear_cursor
编辑清除 SQL 搜索游标。
client.sql.clearCursor({ cursor })
参数
编辑-
请求 (对象)
-
cursor
(string): 要清除的游标。
-
delete_async
编辑删除异步 SQL 搜索。删除异步 SQL 搜索或存储的同步 SQL 搜索。如果搜索仍在运行,API 会取消它。
client.sql.deleteAsync({ id })
参数
编辑-
请求 (对象)
-
id
(string): 搜索的标识符。
-
get_async
编辑获取异步 SQL 搜索结果。获取异步 SQL 搜索或存储的同步 SQL 搜索的当前状态和可用结果。
client.sql.getAsync({ id })
参数
编辑-
请求 (对象)
-
id
(string): 搜索的标识符。 -
delimiter
(可选, 字符串): CSV 结果的分隔符。API 仅支持用于 CSV 响应的此参数。 -
format
(可选, 字符串): 响应的格式。您必须使用此参数或 Accept HTTP 标头指定格式。如果同时指定两者,API 将使用此参数。 -
keep_alive
(可选, 字符串 | -1 | 0): 搜索及其结果的保留期限。默认为原始 SQL 搜索的keep_alive
期限。 -
wait_for_completion_timeout
(可选, 字符串 | -1 | 0): 等待完整结果的时间段。默认为无超时,表示请求会等待完整的搜索结果。
-
get_async_status
编辑获取异步 SQL 搜索状态。获取异步 SQL 搜索或存储的同步 SQL 搜索的当前状态。
client.sql.getAsyncStatus({ id })
参数
编辑-
请求 (对象)
-
id
(string): 搜索的标识符。
-
query
编辑获取 SQL 搜索结果。运行 SQL 请求。
client.sql.query({ ... })
参数
编辑-
请求 (对象)
-
catalog
(可选, 字符串): 查询的默认目录(集群)。如果未指定,则查询仅在本地集群中的数据上执行。 -
columnar
(可选, 布尔值): 如果为 true,则以列式方式返回结果:一行表示当前结果页中某个列的所有值。 -
cursor
(可选, 字符串): 用于检索一组分页结果的游标。如果指定游标,API 将仅使用columnar
和time_zone
请求正文参数。它会忽略其他请求正文参数。 -
fetch_size
(可选, 数字): 一个响应中返回的最大行数(或条目数) -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 用于额外过滤的 Elasticsearch 查询 DSL。 -
query
(可选, string): 要运行的 SQL 查询。 -
request_timeout
(可选, string | -1 | 0): 请求失败前的超时时间。 -
page_timeout
(可选, string | -1 | 0): 分页请求失败前的超时时间。 -
time_zone
(可选, string): 用于搜索的 ISO-8601 时区 ID。 -
field_multi_value_leniency
(可选, boolean): 当遇到字段的多个值时抛出异常(默认),还是宽松处理并从列表中返回第一个值(不保证返回哪个值 - 通常是自然升序的第一个)。 -
runtime_mappings
(可选,Record<string, { fields, fetch_fields, format, input_field, target_field, target_index, script, type }>): 在搜索请求中定义一个或多个运行时字段。这些字段的优先级高于具有相同名称的映射字段。 -
wait_for_completion_timeout
(可选, string | -1 | 0): 等待完整结果的时间。默认为无超时,意味着请求会等待完整的搜索结果。如果搜索在此时间段内未完成,则搜索将变为异步。 -
params
(可选, Record<string, 用户定义的值>): 查询中参数的值。 -
keep_alive
(可选, string | -1 | 0): 异步或保存的同步搜索的保留时间。 -
keep_on_completion
(可选, boolean): 如果为 true,则当你还指定了 wait_for_completion_timeout 参数时,Elasticsearch 会存储同步搜索。如果为 false,则 Elasticsearch 仅存储在 wait_for_completion_timeout 之前未完成的异步搜索。 -
index_using_frozen
(可选, boolean): 如果为 true,则搜索可以在冻结索引上运行。默认为 false。 -
format
(可选, Enum("csv" | "json" | "tsv" | "txt" | "yaml" | "cbor" | "smile")): 响应的格式。
-
translate
编辑将 SQL 转换为 Elasticsearch 查询。将 SQL 搜索转换为包含 Query DSL 的搜索 API 请求。
client.sql.translate({ query })
参数
编辑-
请求 (对象)
-
query
(string): 要运行的 SQL 查询。 -
fetch_size
(可选, number): 在一个响应中返回的最大行数(或条目数)。 -
filter
(可选, { bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }): 用于额外过滤的 Elasticsearch 查询 DSL。 -
time_zone
(可选, string): 用于搜索的 ISO-8601 时区 ID。
-
ssl
编辑certificates
编辑获取 SSL 证书。
获取有关用于加密集群中通信的 X.509 证书的信息。该 API 返回一个列表,其中包括来自所有 TLS 上下文的证书,包括:
- 传输和 HTTP 接口的设置
- 身份验证领域内使用的 TLS 设置
- 远程监控导出器的 TLS 设置
该列表包括用于配置信任的证书,例如在 xpack.security.transport.ssl.truststore
和 xpack.security.transport.ssl.certificate_authorities
设置中配置的证书。它还包括用于配置服务器身份的证书,例如 xpack.security.http.ssl.keystore
和 xpack.security.http.ssl.certificate 设置
。
该列表不包括来自 Java 运行时环境 (JRE) 的默认 SSL 上下文的证书,即使这些证书在 Elasticsearch 中使用。
当 PKCS#11 令牌配置为 JRE 的信任存储时,无论这些证书是否在 Elasticsearch TLS 配置中使用,该 API 都会返回 PKCS#11 令牌中包含的所有证书。
如果 Elasticsearch 配置为使用密钥库或信任存储,则 API 输出包括该存储中的所有证书,即使某些证书可能未在集群中积极使用。
client.ssl.certificates()
synonyms
编辑delete_synonym
编辑删除一个同义词集。
client.synonyms.deleteSynonym({ id })
参数
编辑-
请求 (对象)
-
id
(string): 要删除的同义词集的 ID
-
delete_synonym_rule
编辑删除一个同义词规则。从同义词集中删除一个同义词规则。
client.synonyms.deleteSynonymRule({ set_id, rule_id })
参数
编辑-
请求 (对象)
-
set_id
(string): 要更新的同义词集的 ID -
rule_id
(string): 要删除的同义词规则的 ID
-
get_synonym
编辑获取一个同义词集。
client.synonyms.getSynonym({ id })
参数
编辑-
请求 (对象)
-
id
(string): 要检索的同义词集的 ID -
from
(可选, number): 要检索的查询规则的起始偏移量 -
size
(可选, number): 指定要检索的最大查询规则数
-
get_synonym_rule
编辑获取一个同义词规则。从同义词集中获取一个同义词规则。
client.synonyms.getSynonymRule({ set_id, rule_id })
参数
编辑-
请求 (对象)
-
set_id
(string): 要从中检索同义词规则的同义词集的 ID -
rule_id
(string): 要检索的同义词规则的 ID
-
get_synonyms_sets
编辑获取所有同义词集。获取所有已定义同义词集的摘要。
client.synonyms.getSynonymsSets({ ... })
参数
编辑-
请求 (对象)
-
from
(可选, number): 起始偏移量 -
size
(可选, 数字): 指定要获取的最大结果数
-
put_synonym
编辑创建或更新一个同义词集。每个同义词集最多限制为 10,000 个同义词规则。如果需要管理更多的同义词规则,可以创建多个同义词集。
client.synonyms.putSynonym({ id, synonyms_set })
参数
编辑-
请求 (对象)
-
id
(string): 要创建或更新的同义词集的 ID -
synonyms_set
({ id, synonyms } | { id, synonyms }[]): 要更新的同义词集信息
-
put_synonym_rule
编辑创建或更新一个同义词规则。在同义词集中创建或更新一个同义词规则。
client.synonyms.putSynonymRule({ set_id, rule_id, synonyms })
参数
编辑-
请求 (对象)
-
set_id
(string): 要使用同义词规则更新的同义词集的 ID -
rule_id
(string): 要更新或创建的同义词规则的 ID -
synonyms
(string)
-
tasks
编辑cancel
编辑取消一个任务,如果该任务可以通过 API 取消。
client.tasks.cancel({ ... })
参数
编辑-
请求 (对象)
-
task_id
(可选, string | number): 任务的 ID。 -
actions
(可选, string | string[]): 用于限制请求的操作的列表或通配符表达式。 -
nodes
(可选, string[]): 用于限制请求的节点 ID 或名称列表。 -
parent_task_id
(可选, string): 用于限制任务的父任务 ID。 -
wait_for_completion
(可选, boolean): 请求是否应阻塞直到完成任务及其后代任务的取消。默认为 false
-
get
编辑获取任务信息。返回有关集群中当前正在执行的任务的信息。
client.tasks.get({ task_id })
参数
编辑-
请求 (对象)
-
task_id
(string): 任务的 ID。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_completion
(可选, boolean): 如果为true
,则请求将阻塞直到任务完成。
-
list
编辑任务管理 API 返回有关集群中一个或多个节点上当前正在执行的任务的信息。
client.tasks.list({ ... })
参数
编辑-
请求 (对象)
-
actions
(可选, string | string[]): 用于限制请求的操作的列表或通配符表达式。 -
detailed
(可选,布尔值):如果为true
,则响应包括有关分片恢复的详细信息。 -
group_by
(可选, Enum("nodes" | "parents" | "none")): 用于在响应中分组任务的键。 -
nodes
(可选, string | string[]): 用于限制返回信息的节点 ID 或名称列表。 -
parent_task_id
(可选, string): 用于限制返回信息的父任务 ID。要返回所有任务,请省略此参数或使用值-1
。 -
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
wait_for_completion
(可选, 布尔值): 如果为true
,则请求会阻塞直到操作完成。
-
text_structure
编辑find_field_structure
编辑查找索引中某个文本字段的结构。
client.textStructure.findFieldStructure()
find_message_structure
编辑查找消息列表的结构。这些消息必须包含适合摄取到 Elasticsearch 中的数据。
client.textStructure.findMessageStructure()
find_structure
编辑查找文本文件的结构。文本文件必须包含适合摄取到 Elasticsearch 中的数据。
client.textStructure.findStructure({ ... })
参数
编辑-
请求 (对象)
-
text_files
(可选, TJsonDocument[]) -
charset
(可选, 字符串): 文本的字符集。它必须是 Elasticsearch 使用的 JVM 支持的字符集。例如,UTF-8、UTF-16LE、windows-1252 或 EUC-JP。如果未指定此参数,结构查找器会选择适当的字符集。 -
column_names
(可选, 字符串): 如果已将 format 设置为 delimited,则可以在列表中指定列名。如果未指定此参数,结构查找器会使用文本的标题行中的列名。如果文本没有标题行,则列将命名为 "column1"、"column2"、"column3" 等。 -
delimiter
(可选, 字符串): 如果已将 format 设置为 delimited,则可以指定用于分隔每行中值的字符。仅支持单个字符;分隔符不能有多个字符。默认情况下,API 会考虑以下可能性:逗号、制表符、分号和竖线 (|)。在这种默认情况下,所有行必须具有相同数量的字段才能检测到 delimited 格式。如果指定分隔符,则最多 10% 的行可以具有与第一行不同的列数。 -
ecs_compatibility
(可选, 字符串): 与 ECS 兼容的 Grok 模式的兼容模式(disabled 或 v1,默认值:disabled)。 -
explain
(可选, 布尔值): 如果此参数设置为 true,则响应将包含一个名为 explanation 的字段,该字段是一个字符串数组,指示结构查找器如何生成其结果。 -
format
(可选, 字符串): 文本的高级结构。有效值为 ndjson、xml、delimited 和 semi_structured_text。默认情况下,API 会选择格式。在这种默认情况下,所有行必须具有相同数量的字段才能检测到 delimited 格式。但是,如果格式设置为 delimited 并且未设置分隔符,则 API 可以容忍最多 5% 的行具有与第一行不同的列数。 -
grok_pattern
(可选, 字符串): 如果已将 format 设置为 semi_structured_text,则可以指定一个 Grok 模式,该模式用于从文本中的每条消息中提取字段。Grok 模式中时间戳字段的名称必须与 timestamp_field 参数中指定的名称匹配。如果未指定该参数,则 Grok 模式中时间戳字段的名称必须与 “timestamp” 匹配。如果未指定 grok_pattern,则结构查找器会创建一个 Grok 模式。 -
has_header_row
(可选, 布尔值): 如果已将 format 设置为 delimited,则可以使用此参数来指示列名是否位于文本的第一行中。如果未指定此参数,则结构查找器会根据文本第一行与其他行的相似性进行猜测。 -
line_merge_size_limit
(可选, 数字): 在分析半结构化文本时,将行合并以形成消息时,消息中的最大字符数。 如果您的消息非常长,您可能需要增加此值,但请注意,如果将行分组到消息的方式被错误检测,则可能会导致非常长的处理时间。 -
lines_to_sample
(可选, 数字): 要包含在结构分析中的行数,从文本开头开始。最小值是 2;如果此参数的值大于文本中的行数,则分析将继续(只要文本中至少有两行)针对所有行。 -
quote
(可选, 字符串): 如果已将 format 设置为 delimited,则可以指定用于引用每行中值的字符(如果它们包含换行符或分隔符字符)。仅支持单个字符。如果未指定此参数,则默认值为双引号 (")。如果您的分隔文本格式不使用引号,则解决方法是将此参数设置为样本中任何地方都不会出现的字符。 -
should_trim_fields
(可选, 布尔值): 如果已将 format 设置为 delimited,则可以指定是否应从分隔符之间的值中删除空格。如果未指定此参数且分隔符是竖线 (|),则默认值为 true。否则,默认值为 false。 -
timeout
(可选, 字符串 | -1 | 0): 设置结构分析可以执行的最长时间。如果超时到期时分析仍在运行,则将中止分析。 -
timestamp_field
(可选, 字符串): 可选参数,用于指定文件中的时间戳字段 -
timestamp_format
(可选, 字符串): 文本中时间戳字段的 Java 时间格式。
-
test_grok_pattern
编辑在某些文本上测试 Grok 模式。
client.textStructure.testGrokPattern({ grok_pattern, text })
参数
编辑-
请求 (对象)
-
grok_pattern
(字符串): 要在文本上运行的 Grok 模式。 -
text
(字符串数组): 要在其上运行 Grok 模式的文本行。 -
ecs_compatibility
(可选, 字符串): 与 ECS 兼容的 Grok 模式的兼容模式(disabled 或 v1,默认值:disabled)。
-
transform
编辑delete_transform
编辑删除转换。删除转换。
client.transform.deleteTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。 -
force
(可选, 布尔值): 如果此值为 false,则必须先停止转换,然后才能将其删除。如果为 true,则无论其当前状态如何,都将删除转换。 -
delete_dest_index
(可选, 布尔值): 如果此值为 true,则目标索引将与转换一起删除。如果为 false,则不会删除目标索引 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
get_node_stats
编辑检索转换节点的转换使用情况信息。
client.transform.getNodeStats()
get_transform
编辑获取转换。检索转换的配置信息。
client.transform.getTransform({ ... })
参数
编辑-
请求 (对象)
-
transform_id
(可选, 字符串 | 字符串数组): 转换的标识符。它可以是转换标识符或通配符表达式。您可以通过使用_all
、将*
指定为<transform_id>
或省略<transform_id>
来获取所有转换的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的转换。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
如果此参数为 false,则当没有匹配项或仅部分匹配项时,请求将返回 404 状态代码。 from
(可选, 数字): 跳过指定数量的转换。 size
(可选, 数字): 指定要获取的最大转换数。 * *exclude_generated
(可选, 布尔值): 排除创建转换时自动添加的字段。这允许配置采用可接受的格式进行检索,然后添加到另一个集群。
get_transform_stats
编辑获取转换统计信息。检索转换的使用情况信息。
client.transform.getTransformStats({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串 | 字符串数组): 转换的标识符。它可以是转换标识符或通配符表达式。您可以通过使用_all
、将*
指定为<transform_id>
或省略<transform_id>
来获取所有转换的信息。 -
allow_no_match
(可选, 布尔值):指定请求时应执行的操作- 包含通配符表达式,并且没有匹配的转换。
- 包含 _all 字符串或没有标识符且没有匹配项。
- 包含通配符表达式且只有部分匹配项。
-
如果此参数为 false,则当没有匹配项或仅部分匹配项时,请求将返回 404 状态代码。 from
(可选, 数字): 跳过指定数量的转换。 size
(可选, 数字): 指定要获取的最大转换数。 * *timeout
(可选, 字符串 | -1 | 0): 控制等待统计信息的时间
preview_transform
编辑预览转换。生成使用相同配置创建转换时将获得的结果的预览。
它最多返回 100 个结果。计算基于源索引中的所有当前数据。它还会为目标索引生成映射和设置列表。这些值是根据源索引的字段类型和转换聚合确定的。
client.transform.previewTransform({ ... })
参数
编辑-
请求 (对象)
-
transform_id
(可选, 字符串): 要预览的转换的标识符。如果指定此路径参数,则不能在请求正文中提供转换配置详细信息。 -
dest
(可选, { index, op_type, pipeline, routing, version_type }): 转换的目标。 -
description
(可选, 字符串): 转换的自由文本描述。 -
frequency
(可选, 字符串 | -1 | 0): 当转换连续运行时,检查源索引中更改之间的间隔。还确定在转换正在搜索或索引时发生瞬时故障时的重试间隔。最小值是 1 秒,最大值是 1 小时。 -
pivot
(可选,{ aggregations, group_by }): `pivot` 方法通过聚合和分组来转换数据。这些对象定义了分组字段和用于缩减数据的聚合操作。 -
source
(可选,{ index, query, remote, size, slice, sort, _source, runtime_mappings }): 转换的数据源。 -
settings
(可选,{ align_checkpoints, dates_as_epoch_millis, deduce_mappings, docs_per_second, max_page_search_size, unattended }): 定义可选的转换设置。 -
sync
(可选,{ time }): 定义转换持续运行所需的属性。 -
retention_policy
(可选,{ time }): 定义转换的保留策略。满足定义条件的数据将从目标索引中删除。 -
latest
(可选,{ sort, unique_key }): `latest` 方法通过查找每个唯一键的最新文档来转换数据。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
put_transform
编辑创建一个转换。用于创建转换。
转换从源索引复制数据,对其进行转换,并将其持久化到以实体为中心的目标索引中。 您还可以将目标索引视为二维表格数据结构(称为数据帧)。数据帧中每个文档的 ID 是从实体哈希生成的,因此每个实体都有一行唯一的记录。
您必须为转换选择 `latest` 或 `pivot` 方法之一;不能在单个转换中同时使用两者。 如果您选择使用 `pivot` 方法进行转换,则实体由 `pivot` 对象中的 `group_by` 字段集定义。 如果您选择使用 `latest` 方法,则实体由 `latest` 对象中的 `unique_key` 字段值定义。
您必须在目标索引上拥有 `create_index`、`index` 和 `read` 权限,并在源索引上拥有 `read` 和 `view_index_metadata` 权限。 启用 Elasticsearch 安全功能后,转换会记住创建它时用户拥有的角色,并使用相同的角色。 如果这些角色在源索引和目标索引上没有所需的权限,则当转换尝试未经授权的操作时,转换将会失败。
您必须使用 Kibana 或此 API 来创建转换。 不要使用 Elasticsearch 索引 API 将转换直接添加到任何 ` .transform-internal* ` 索引中。 如果启用了 Elasticsearch 安全功能,请不要向用户授予任何对 ` .transform-internal* ` 索引的权限。 如果您在 7.5 之前使用过转换,也不要向用户授予任何对 ` .data-frame-internal* ` 索引的权限。
client.transform.putTransform({ transform_id, dest, source })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它具有 64 个字符的限制,并且必须以字母数字字符开头和结尾。 -
dest
({ index, op_type, pipeline, routing, version_type }): 转换的目标。 -
source
({ index, query, remote, size, slice, sort, _source, runtime_mappings }): 转换的数据源。 -
description
(可选, 字符串): 转换的自由文本描述。 -
frequency
(可选,字符串 | -1 | 0): 转换持续运行时,检查源索引中更改的间隔。 并且在转换搜索或索引期间发生瞬时故障时,也决定了重试间隔。 最小值是1s
,最大值是1h
。 -
latest
(可选,{ sort, unique_key }): `latest` 方法通过查找每个唯一键的最新文档来转换数据。 -
_meta
(可选,Record<字符串, 用户定义的值>): 定义可选的转换元数据。 -
pivot
(可选,{ aggregations, group_by }): `pivot` 方法通过聚合和分组来转换数据。这些对象定义了分组字段和用于缩减数据的聚合操作。 -
retention_policy
(可选,{ time }): 定义转换的保留策略。满足定义条件的数据将从目标索引中删除。 -
settings
(可选,{ align_checkpoints, dates_as_epoch_millis, deduce_mappings, docs_per_second, max_page_search_size, unattended }): 定义可选的转换设置。 -
sync
(可选,{ time }): 定义转换持续运行所需的属性。 -
defer_validation
(可选,布尔值): 创建转换时,会进行一系列验证以确保其成功。 例如,会检查源索引是否存在,以及目标索引是否不是源索引模式的一部分。 您可以使用此参数跳过检查,例如当源索引在创建转换之后才存在时。 但是,当你启动转换时,始终会运行验证,除了权限检查。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
reset_transform
编辑重置转换。用于重置转换。在重置转换之前,必须停止它; 或者,使用 `force` 查询参数。 如果目标索引是由转换创建的,则会将其删除。
client.transform.resetTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。此标识符可以包含小写字母数字字符 (a-z 和 0-9)、连字符和下划线。它具有 64 个字符的限制,并且必须以字母数字字符开头和结尾。 -
force
(可选,布尔值): 如果此值为true
,则无论转换的当前状态如何,都会将其重置。 如果为false
,则必须先停止转换,然后才能重置。
-
schedule_now_transform
编辑计划立即启动转换。立即运行转换以处理数据。
如果您使用 `_schedule_now` 调度转换,它将立即处理新数据,而无需等待配置的频率间隔。 调用 `_schedule_now` API 后,除非再次调用 `_schedule_now` API,否则将在现在 + 频率再次处理转换。
client.transform.scheduleNowTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。 -
timeout
(可选,字符串 | -1 | 0): 控制等待调度的超时时间
-
start_transform
编辑启动转换。用于启动转换。
启动转换时,如果目标索引尚不存在,它会创建该索引。 `number_of_shards` 设置为 1
,`auto_expand_replicas` 设置为 0-1
。 如果它是 `pivot` 转换,它会从源索引和转换聚合中推断出目标索引的映射定义。 如果目标索引中的字段来自脚本(例如 `scripted_metric` 或 `bucket_script` 聚合),则转换会使用动态映射,除非存在索引模板。 如果是 `latest` 转换,则它不会推断映射定义;它使用动态映射。 要使用显式映射,请在启动转换之前创建目标索引。 或者,您可以创建一个索引模板,尽管它不会影响 `pivot` 转换中推断出的映射。
启动转换时,会进行一系列验证以确保其成功。 如果您在创建转换时延迟了验证,则它们会在您启动转换时发生 - 除了权限检查。 启用 Elasticsearch 安全功能后,转换会记住创建它时用户拥有的角色,并使用相同的角色。 如果这些角色在源索引和目标索引上没有所需的权限,则当转换尝试未经授权的操作时,转换将会失败。
client.transform.startTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。 -
from
(可选,字符串): 将转换的实体集限制为在此时间之后更改的实体。 支持相对时间,例如 now-30d。 仅适用于连续转换。
-
stop_transform
编辑停止转换。用于停止一个或多个转换。
client.transform.stopTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。 要停止多个转换,请使用列表或通配符表达式。 要停止所有转换,请使用_all
或*
作为标识符。 -
allow_no_match
(可选,布尔值): 指定当请求:包含通配符表达式并且没有匹配的转换时;包含_all
字符串或没有标识符并且没有匹配项时;包含通配符表达式并且只有部分匹配项时,该怎么做。
-
如果为 true,则当没有匹配项时,API 返回成功的确认消息。 当只有部分匹配项时,API 会停止相应的转换。
如果为 false,当没有匹配项或只有部分匹配项时,请求将返回 404 状态代码。 force
(可选,布尔值): 如果为 true,则 API 会强制停止转换。 timeout
(可选,字符串 | -1 | 0): 当 wait_for_completion
为 true
时,等待响应的时间段。 如果在超时时间到期之前没有收到响应,则请求将返回超时异常。 但是,请求会继续处理并最终将转换移动到 STOPPED 状态。 wait_for_checkpoint
(可选,布尔值): 如果为 true,则转换不会完全停止,直到当前检查点完成。 如果为 false,则转换会尽快停止。 wait_for_completion
(可选,布尔值): 如果为 true,则 API 会阻塞,直到索引器状态完全停止。 如果为 false,则 API 会立即返回,并且索引器在后台异步停止。
update_transform
编辑更新转换。用于更新转换的某些属性。
除 description
之外的所有更新属性,在转换开始下一个检查点后才会生效,因此每个检查点都具有数据一致性。 要使用此 API,您必须具有源索引的 read
和 view_index_metadata
权限。 您还必须具有目标索引的 index
和 read
权限。 启用 Elasticsearch 安全功能后,转换会记住更新它时用户拥有的角色,并使用这些权限运行。
client.transform.updateTransform({ transform_id })
参数
编辑-
请求 (对象)
-
transform_id
(字符串): 转换的标识符。 -
dest
(可选, { index, op_type, pipeline, routing, version_type }): 转换的目标。 -
description
(可选, 字符串): 转换的自由文本描述。 -
frequency
(可选, 字符串 | -1 | 0): 当转换连续运行时,检查源索引中更改之间的间隔。还确定在转换正在搜索或索引时发生瞬时故障时的重试间隔。最小值是 1 秒,最大值是 1 小时。 -
_meta
(可选,Record<字符串, 用户定义的值>): 定义可选的转换元数据。 -
source
(可选,{ index, query, remote, size, slice, sort, _source, runtime_mappings }): 转换的数据源。 -
settings
(可选,{ align_checkpoints, dates_as_epoch_millis, deduce_mappings, docs_per_second, max_page_search_size, unattended }): 定义可选的转换设置。 -
sync
(可选,{ time }): 定义转换持续运行所需的属性。 -
retention_policy
(可选,{ time } | null): 定义转换的保留策略。 满足定义条件的数据将从目标索引中删除。 -
defer_validation
(可选,布尔值): 如果为 true,则不会运行可延迟的验证。 如果源索引在创建转换之后才存在,则可能需要此行为。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
upgrade_transforms
编辑升级所有转换。此 API 标识具有旧配置格式的转换,并将其升级到最新版本。 它还会清理存储转换状态和检查点的内部数据结构。 升级不会影响源索引和目标索引。 升级也不会影响启用 Elasticsearch 安全功能时转换使用的角色;用于读取源数据并写入目标索引的角色保持不变。
client.transform.upgradeTransforms({ ... })
参数
编辑-
请求 (对象)
-
dry_run
(可选,布尔值): 如果为 true,则请求会检查更新,但不会运行它们。 -
timeout
(可选, 字符串 | -1 | 0): 等待响应的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-
watcher
编辑ack_watch
编辑确认监视,手动限制监视操作的执行。
client.watcher.ackWatch({ watch_id })
参数
编辑-
请求 (对象)
-
watch_id
(字符串): 监视 ID -
action_id
(可选,字符串 | 字符串数组): 要确认的动作 ID 列表
-
activate_watch
编辑激活当前处于非活动状态的监视。
client.watcher.activateWatch({ watch_id })
参数
编辑-
请求 (对象)
-
watch_id
(字符串): 监视 ID
-
deactivate_watch
编辑停用当前处于活动状态的监视。
client.watcher.deactivateWatch({ watch_id })
参数
编辑-
请求 (对象)
-
watch_id
(字符串): 监视 ID
-
delete_watch
编辑从 Watcher 中删除监视。
client.watcher.deleteWatch({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 监视 ID
-
execute_watch
编辑此 API 可用于强制执行触发逻辑之外的监视,或模拟监视执行以进行调试。出于测试和调试目的,您还可以精细控制监视的运行方式。您可以执行监视而不执行其所有操作,或者通过模拟它们来执行。您还可以通过忽略监视条件强制执行,并控制是否在执行后将监视记录写入监视历史记录。
client.watcher.executeWatch({ ... })
参数
编辑-
请求 (对象)
-
id
(可选,字符串):监视的标识符。 -
action_modes
(可选,Record<string, Enum("simulate" | "force_simulate" | "execute" | "force_execute" | "skip")>):确定如何处理监视操作作为监视执行的一部分。 -
alternative_input
(可选,Record<string, 用户定义的值>):如果存在,监视将使用此对象作为有效负载,而不是执行其自己的输入。 -
ignore_condition
(可选,布尔值):当设置为true
时,监视执行将始终使用条件。也可以将其指定为 HTTP 参数。 -
record_execution
(可选,布尔值):当设置为true
时,表示监视执行结果的监视记录将持久化到当前时间的.watcher-history
索引。此外,还会更新监视的状态,可能会限制后续执行。也可以将其指定为 HTTP 参数。 -
simulated_actions
(可选,{ actions, all, use_all }) -
trigger_data
(可选,{ scheduled_time, triggered_time }):此结构被解析为将在监视执行期间使用的触发事件的数据。 -
watch
(可选,{ actions, condition, input, metadata, status, throttle_period, throttle_period_in_millis, transform, trigger }):如果存在,则使用此监视,而不是请求中指定的监视。此监视不会持久化到索引,并且无法设置 record_execution。 -
debug
(可选,布尔值):定义监视是否在调试模式下运行。
-
get_settings
编辑检索监视器系统索引的设置
client.watcher.getSettings()
get_watch
编辑按 ID 检索监视。
client.watcher.getWatch({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 监视 ID
-
put_watch
编辑创建新的监视,或更新现有监视。
client.watcher.putWatch({ id })
参数
编辑-
请求 (对象)
-
id
(字符串): 监视 ID -
actions
(可选,Record<string, { add_backing_index, remove_backing_index }>) -
condition
(可选,{ always, array_compare, compare, never, script }) -
input
(可选,{ chain, http, search, simple }) -
metadata
(可选,Record<字符串,用户定义的值>) -
throttle_period
(可选,字符串) -
transform
(可选,{ chain, script, search }) -
trigger
(可选,{ schedule }) -
active
(可选,布尔值):指定监视是否默认处于活动/非活动状态 -
if_primary_term
(可选,数字):仅当上次更改监视的操作具有指定的主项时才更新监视 -
if_seq_no
(可选,数字):仅当上次更改监视的操作具有指定的序列号时才更新监视 -
version
(可选,数字):用于并发控制的显式版本号
-
query_watches
编辑检索存储的监视。
client.watcher.queryWatches({ ... })
参数
编辑-
请求 (对象)
-
from
(可选,数字):要提取的第一个结果的偏移量。必须是非负数。 -
size
(可选,数字):要返回的命中数。必须是非负数。 -
query
(可选,{ bool, boosting, common, combined_fields, constant_score, dis_max, distance_feature, exists, function_score, fuzzy, geo_bounding_box, geo_distance, geo_polygon, geo_shape, has_child, has_parent, ids, intervals, knn, match, match_all, match_bool_prefix, match_none, match_phrase, match_phrase_prefix, more_like_this, multi_match, nested, parent_id, percolate, pinned, prefix, query_string, range, rank_feature, regexp, rule, script, script_score, semantic, shape, simple_query_string, span_containing, span_field_masking, span_first, span_multi, span_near, span_not, span_or, span_term, span_within, sparse_vector, term, terms, terms_set, text_expansion, weighted_tokens, wildcard, wrapper, type }):可选,查询筛选要返回的监视。 -
sort
(可选,字符串 | { _score, _doc, _geo_distance, _script } | 字符串 | { _score, _doc, _geo_distance, _script }[]):可选排序定义。 -
search_after
(可选,数字 | 数字 | 字符串 | 布尔值 | null | 用户定义的值[]):可选的 search After 使用上次命中的排序值进行分页。
-
start
编辑如果 Watcher 尚未运行,则启动 Watcher。
client.watcher.start()
stats
编辑检索当前的 Watcher 指标。
client.watcher.stats({ ... })
参数
编辑-
请求 (对象)
-
metric
(可选,Enum("_all" | "queued_watches" | "current_watches" | "pending_watches") | Enum("_all" | "queued_watches" | "current_watches" | "pending_watches")[]):定义响应中包含的附加指标。 -
emit_stacktraces
(可选,布尔值):定义是否为每个正在运行的监视生成堆栈跟踪。
-
stop
编辑如果 Watcher 正在运行,则停止 Watcher。
client.watcher.stop()
update_settings
编辑更新监视器系统索引的设置
client.watcher.updateSettings()
xpack
编辑info
编辑提供有关已安装的 X-Pack 功能的常规信息。
client.xpack.info({ ... })
参数
编辑-
请求 (对象)
-
categories
(可选,Enum("build" | "features" | "license")[]):要包含在响应中的信息类别列表。例如,build,license,features
。 -
accept_enterprise
(可选,布尔值):如果使用此参数,则必须将其设置为 true -
human
(可选,布尔值):定义响应中是否包含其他人类可读的信息。特别是,它添加了描述和标语。
-
usage
编辑此 API 提供有关当前在当前许可证下启用和可用的功能以及一些使用情况统计信息的信息。
client.xpack.usage({ ... })
参数
编辑-
请求 (对象)
-
master_timeout
(可选, 字符串 | -1 | 0): 等待与主节点建立连接的时间段。如果在超时到期之前未收到响应,则请求会失败并返回错误。
-