死信队列输入插件

编辑
  • 插件版本: v2.0.1
  • 发布日期: 2024-09-04
  • 更新日志

对于其他版本,请参阅版本化插件文档

获取帮助

编辑

有关插件的问题,请在 Discuss 论坛中打开一个主题。对于错误或功能请求,请在 Github 中打开一个问题。有关 Elastic 支持的插件列表,请查阅 Elastic 支持矩阵

描述

编辑

Logstash 输入,用于从 Logstash 的死信队列读取事件。

input {
  dead_letter_queue {
    path => "/var/logstash/data/dead_letter_queue"
    start_timestamp => "2017-04-04T23:40:37"
  }
}

有关处理死信队列中事件的更多信息,请参阅死信队列

死信队列输入配置选项

编辑

此插件支持以下配置选项以及稍后描述的通用选项

设置 输入类型 必填

clean_consumed

布尔值

commit_offsets

布尔值

路径

有效的文件系统路径

pipeline_id

字符串

sincedb_path

字符串

start_timestamp

字符串

另请参阅通用选项,以获取所有输入插件支持的选项列表。

 

clean_consumed

编辑

设置为true时,此选项将删除已读取的 DLQ 段。此功能要求将commit_offsets设置为true。如果不是,您将收到配置错误。此功能在 Logstash 8.4.0 及更高版本中可用。如果此设置是true,并且您使用的是低于 8.4.0 的 Logstash 版本,则您将收到配置错误。

commit_offsets

编辑

指定此输入是否应在处理事件时提交偏移量。通常,当您想要多次迭代死信队列中的事件,但不希望保存状态时,您会指定false。这是当您正在探索死信队列中的事件时。

path

编辑
  • 这是一个必填设置。
  • 值类型为路径
  • 此设置没有默认值。

由 Logstash 实例创建的死信队列目录的路径。这是从中读取“死”事件的路径,通常在原始 Logstash 实例中使用设置path.dead_letter_queue进行配置。

pipeline_id

编辑

要从中读取事件的管道的 ID。

sincedb_path

编辑
  • 值类型为字符串
  • 此设置没有默认值。

将写入磁盘的 sincedb 数据库文件(跟踪死信队列的当前位置)的路径。默认情况下,sincedb 文件将写入 <path.data>/plugins/inputs/dead_letter_queue

此值必须是文件路径,而不是目录路径。

start_timestamp

编辑
  • 值类型为字符串
  • 此设置没有默认值。

您想要开始处理事件的 ISO8601 格式的时间戳。例如,2017-04-04T23:40:37

通用选项

编辑

所有输入插件都支持这些配置选项

设置 输入类型 必填

add_field

哈希

codec

codec

enable_metric

布尔值

id

字符串

tags

数组

type

字符串

add_field

编辑
  • 值类型为哈希
  • 默认值为{}

向事件添加字段

codec

编辑
  • 值类型为codec
  • 默认值为"plain"

用于输入数据的编解码器。输入编解码器是一种方便的方法,可以在数据进入输入之前对其进行解码,而无需在 Logstash 管道中单独的过滤器。

enable_metric

编辑

禁用或启用此特定插件实例的指标记录,默认情况下,我们记录所有可以记录的指标,但是您可以禁用特定插件的指标收集。

  • 值类型为字符串
  • 此设置没有默认值。

向插件配置添加唯一的ID。如果未指定 ID,Logstash 将生成一个 ID。强烈建议在配置中设置此 ID。当您有两个或多个相同类型的插件时,这尤其有用,例如,如果您有 2 个死信队列输入。在这种情况下添加命名 ID 将有助于在使用监控 API 时监控 Logstash。

input {
  dead_letter_queue {
    id => "my_plugin_id"
  }
}

id字段中的变量替换仅支持环境变量,并且不支持使用来自密钥存储的值。

tags

编辑
  • 值类型为数组
  • 此设置没有默认值。

向您的事件添加任意数量的标签。

这有助于以后的处理。

type

编辑
  • 值类型为字符串
  • 此设置没有默认值。

向此输入处理的所有事件添加type字段。

类型主要用于过滤器激活。

该类型作为事件本身的一部分存储,因此您也可以使用该类型在 Kibana 中搜索它。

如果您尝试在已经具有类型的事件上设置类型(例如,当您将事件从发货方发送到索引器时),则新的输入将不会覆盖现有类型。在发货方设置的类型将保留该事件的整个生命周期,即使发送到另一个 Logstash 服务器也是如此。