Es_bulk 编解码器插件编辑

  • 插件版本:v3.1.0
  • 发布时间:2021-08-19
  • 更新日志

有关其他版本,请参阅版本化插件文档

获取帮助编辑

如果您对该插件有任何疑问,请在论坛中打开一个主题。对于错误或功能请求,请在Github中打开一个问题。有关 Elastic 支持的插件列表,请参阅Elastic 支持矩阵

描述编辑

此编解码器会将Elasticsearch 批量格式解码为单个事件,并将元数据解码到@metadata字段中。

目前不支持编码,因为 Elasticsearch 输出以批量格式提交 Logstash 事件。

logstash-input-http插件中的编解码器设置编辑

input-http插件有两个用于编解码器的配置选项:codecadditional_codecs

additional_codecs中的值优先于codec选项中指定的值。也就是说,只有在additional_codecs设置中找不到请求内容类型的编解码器时,才会应用默认的codec

事件元数据和 Elastic 通用模式 (ECS)编辑

禁用 ECS 兼容性时,元数据存储在[@metadata]字段中。启用 ECS 时,元数据存储在[@metadata][codec][es_bulk]字段中。

ES 批量编解码器配置选项编辑

设置 输入类型 必需

ecs_compatibility

字符串

目标

字符串

ecs_compatibility编辑

  • 值类型为字符串
  • 支持的值为

    • disabled:在 @metadata 处添加的非结构化元数据
    • v1:使用[@metadata][codec][es_bulk]字段

控制此插件与Elastic 通用模式 (ECS)的兼容性。

target编辑

  • 值类型为字符串
  • 此设置没有默认值。

定义放置值的目標字段。如果未设置此设置,则数据将存储在事件的根目录(顶级)中。

例如,如果您希望将数据放在document字段下

input {
  kafka {
    codec => es_bulk {
        target => "[document]"
    }
  }
}