Es_bulk 编解码器插件

编辑
  • 插件版本:v3.1.0
  • 发布时间:2021-08-19
  • 变更日志

对于其他版本,请参见 版本化插件文档

获取帮助

编辑

如有任何关于插件的问题,请在 Discuss 论坛中发起讨论。如有错误或功能请求,请在 Github 中提交问题。如需查看 Elastic 支持的插件列表,请查阅 Elastic 支持矩阵

描述

编辑

此编解码器会将 Elasticsearch 批量格式 解码为单个事件,并将元数据添加到 @metadata 字段。

目前不支持编码,因为 Elasticsearch 输出以批量格式提交 Logstash 事件。

logstash-input-http 插件中的编解码器设置

编辑

input-http 插件有两个用于编解码器的配置选项:codecadditional_codecs

additional_codecs 中的值优先于 codec 选项中指定的值。也就是说,只有当在 additional_codecs 设置中找不到请求的 content-type 的编解码器时,才会应用默认的 codec

事件元数据和 Elastic 通用架构 (ECS)

编辑

禁用 ECS 兼容性时,元数据将存储在 [@metadata] 字段中。启用 ECS 时,元数据将存储在 [@metadata][codec][es_bulk] 字段中。

ES 批量编解码器配置选项

编辑
设置 输入类型 必需

ecs_compatibility

字符串

目标

字符串

ecs_compatibility

编辑
  • 值类型为 字符串
  • 支持的值为:

    • disabled:在 @metadata 中添加非结构化元数据
    • v1:使用 [@metadata][codec][es_bulk] 字段

控制此插件与 Elastic 通用架构 (ECS) 的兼容性。

target

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

定义放置值的 target 字段。如果未设置此设置,则数据将存储在事件的根(顶层)级别。

例如,如果要将数据放在 document 字段下

input {
  kafka {
    codec => es_bulk {
        target => "[document]"
    }
  }
}