Es_bulk 编解码器插件

编辑

对于其他版本,请参阅版本化的插件文档

获取帮助

编辑

关于插件的问题,请在Discuss论坛中开启一个主题。对于错误或功能请求,请在Github中开启一个 issue。有关 Elastic 支持的插件列表,请参阅Elastic 支持矩阵

描述

编辑

此编解码器会将Elasticsearch 批量格式解码为单独的事件,并将元数据放入 @metadata 字段。

目前不支持编码,因为 Elasticsearch 输出以批量格式提交 Logstash 事件。

logstash-input-http 插件中的编解码器设置

编辑

input-http 插件有两个用于编解码器的配置选项:codecadditional_codecs

additional_codecs 中的值优先于 codec 选项中指定的值。也就是说,只有在 additional_codecs 设置中未找到请求的内容类型的编解码器时,才会应用默认的 codec

事件元数据和 Elastic Common Schema (ECS)

编辑

当禁用 ECS 兼容性时,元数据存储在 [@metadata] 字段中。启用 ECS 时,元数据存储在 [@metadata][codec][es_bulk] 字段中。

ES Bulk 编解码器配置选项

编辑
设置 输入类型 必需

ecs_compatibility

字符串

target

字符串

ecs_compatibility

编辑
  • 值类型为 字符串
  • 支持的值有

    • disabled:在 @metadata 添加非结构化元数据
    • v1:使用 [@metadata][codec][es_bulk] 字段

控制此插件与Elastic Common Schema (ECS)的兼容性。

target

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

定义放置值的目标字段。如果未设置此设置,则数据将存储在事件的根(顶层)。

例如,如果要将数据放在 document 字段下

input {
  kafka {
    codec => es_bulk {
        target => "[document]"
    }
  }
}