Kafka 输入插件

编辑

有关其他版本,请参阅版本化插件文档

获取帮助

编辑

有关该插件的问题,请在 Discuss 论坛中打开一个主题。对于错误或功能请求,请在 Github 中打开一个问题。有关 Elastic 支持的插件列表,请参阅Elastic 支持矩阵

描述

编辑

此输入将从 Kafka 主题读取事件。

此插件使用 Kafka 客户端 3.4。有关 broker 兼容性,请参阅官方的 Kafka 兼容性参考。如果链接的兼容性 Wiki 不是最新的,请联系 Kafka 支持/社区以确认兼容性。

如果您需要此插件中尚未提供的功能(包括客户端版本升级),请提交一个问题,详细说明您需要什么。

此输入支持通过以下方式连接到 Kafka:

  • SSL(需要插件版本 3.0.0 或更高版本)
  • Kerberos SASL(需要插件版本 5.1.0 或更高版本)

默认情况下,安全已禁用,但可以根据需要启用。

此插件不支持在与 Kafka broker 通信时使用代理。

当使用 schema_registry_proxy 选项与 Schema Registry 通信时,此插件支持使用代理。

Logstash Kafka 消费者处理组管理,并使用 Kafka 主题的默认偏移管理策略。

Logstash 实例默认形成一个逻辑组来订阅 Kafka 主题。每个 Logstash Kafka 消费者可以运行多个线程来提高读取吞吐量。或者,您可以运行多个具有相同 group_id 的 Logstash 实例,以将负载分散到物理计算机上。主题中的消息将分发到所有具有相同 group_id 的 Logstash 实例。

理想情况下,您应该拥有与分区数一样多的线程以实现完美的平衡,即线程数多于分区数意味着某些线程将处于空闲状态。

有关更多信息,请参阅 https://kafka.apache.org/34/documentation.html#theconsumer

Kafka 消费者配置:https://kafka.apache.org/34/documentation.html#consumerconfigs

元数据字段

编辑

Kafka broker 中的以下元数据会添加到 [@metadata] 字段下

  • [@metadata][kafka][topic]:从中消费消息的原始 Kafka 主题。
  • [@metadata][kafka][consumer_group]:消费者组
  • [@metadata][kafka][partition]:此消息的分区信息。
  • [@metadata][kafka][offset]:此消息的原始记录偏移量。
  • [@metadata][kafka][key]:记录键(如果有)。
  • [@metadata][kafka][timestamp]:记录中的时间戳。根据您的 broker 配置,这可以是创建记录的时间(默认)或 broker 接收记录的时间。有关属性 log.message.timestamp.type 的更多信息,请参阅 https://kafka.apache.org/34/documentation.html#brokerconfigs

仅当 decorate_events 选项设置为 basicextended 时(默认为 none),元数据才会添加到事件中。

请注意,@metadata 字段不是输出时任何事件的一部分。如果您需要将这些信息插入到原始事件中,则必须使用 mutate 过滤器手动将所需的字段复制到您的 event 中。

Kafka 输入配置选项

编辑

此插件支持以下配置选项以及稍后描述的通用选项

其中一些选项映射到 Kafka 选项。默认值通常反映 Kafka 的默认设置,如果 Kafka 的消费者默认值发生更改,则可能会发生更改。有关更多详细信息,请参阅 https://kafka.apache.org/34/documentation

设置 输入类型 必需

auto_commit_interval_ms

数字

auto_create_topics 

布尔值

auto_offset_reset

字符串

bootstrap_servers

字符串

check_crcs

布尔值

client_dns_lookup

字符串

client_id

字符串

client_rack

字符串

connections_max_idle_ms

数字

consumer_threads

数字

decorate_events

字符串

enable_auto_commit

布尔值

exclude_internal_topics

字符串

fetch_max_bytes

数字

fetch_max_wait_ms

数字

fetch_min_bytes

数字

group_id

字符串

group_instance_id

字符串

heartbeat_interval_ms

数字

isolation_level

字符串

jaas_path

有效的文件系统路径

kerberos_config

有效的文件系统路径

key_deserializer_class

字符串

max_partition_fetch_bytes

数字

max_poll_interval_ms

数字

max_poll_records

数字

metadata_max_age_ms

数字

partition_assignment_strategy

字符串

poll_timeout_ms

数字

receive_buffer_bytes

数字

reconnect_backoff_ms

数字

request_timeout_ms

数字

retry_backoff_ms

数字

sasl_client_callback_handler_class

字符串

sasl_jaas_config

字符串

sasl_kerberos_service_name

字符串

sasl_mechanism

字符串

schema_registry_key

字符串

schema_registry_proxy

uri

schema_registry_secret

字符串

schema_registry_ssl_keystore_location

有效的文件系统路径

schema_registry_ssl_keystore_password

密码

schema_registry_ssl_keystore_type

字符串,可以是 ["jks", "PKCS12"] 之一

schema_registry_ssl_truststore_location

有效的文件系统路径

schema_registry_ssl_truststore_password

密码

schema_registry_ssl_truststore_type

字符串,可以是 ["jks", "PKCS12"] 之一

schema_registry_url

uri

schema_registry_validation

字符串

security_protocol

字符串,可以是 ["PLAINTEXT", "SSL", "SASL_PLAINTEXT", "SASL_SSL"] 之一

send_buffer_bytes

数字

session_timeout_ms

数字

ssl_endpoint_identification_algorithm

字符串

ssl_key_password

密码

ssl_keystore_location

有效的文件系统路径

ssl_keystore_password

密码

ssl_keystore_type

字符串,可以是 ["jks", "PKCS12"] 之一

ssl_truststore_location

有效的文件系统路径

ssl_truststore_password

密码

ssl_truststore_type

字符串,可以是 ["jks", "PKCS12"] 之一

topics

数组

topics_pattern

字符串

value_deserializer_class

字符串

另请参阅通用选项,获取所有输入插件支持的选项列表。

 

auto_commit_interval_ms

编辑
  • 值类型为 数字
  • 默认值为 5000

将消费者偏移量提交到 Kafka 的频率(以毫秒为单位)。

auto_offset_reset

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

当 Kafka 中没有初始偏移量或偏移量超出范围时该如何处理

  • earliest:自动将偏移量重置为最早的偏移量
  • latest:自动将偏移量重置为最新的偏移量
  • none:如果未找到消费者组的先前偏移量,则向消费者抛出异常
  • 其他:向消费者抛出异常。

bootstrap_servers

编辑
  • 值类型为 字符串
  • 默认值为 "localhost:9092"

用于建立与集群初始连接的 Kafka 实例的 URL 列表。此列表应采用 host1:port1,host2:port2 的形式。这些 URL 仅用于初始连接以发现完整的集群成员资格(可能会动态更改),因此此列表不必包含完整的服务器集(但您可能需要多个,以防服务器宕机)。

check_crcs

编辑

自动检查消费的记录的 CRC32。这可以确保消息未发生在线路或磁盘上的损坏。此检查会增加一些开销,因此在寻求极致性能的情况下可能会禁用它。

client_dns_lookup

编辑
  • 值类型为 字符串
  • 默认值为 "default"

应如何执行 DNS 查找。如果设置为 use_all_dns_ips,则当查找返回主机名的多个 IP 地址时,会在连接失败之前尝试连接所有 IP 地址。如果该值为 resolve_canonical_bootstrap_servers_only,则会解析每个条目并将其扩展为规范名称列表。

从 Kafka 3 开始,已删除 client.dns.lookup 值的 default 值。如果显式配置,它将回退到 use_all_dns_ips

client_id

编辑
  • 值类型为 字符串
  • 默认值为 "logstash"

在发出请求时要传递给服务器的 ID 字符串。其目的是能够通过允许包含逻辑应用程序名称来跟踪请求的来源,而不仅仅是 ip/端口。

client_rack

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

Kafka 消费者的机架标识符。用于选择消费者从中读取的物理上最近的机架。该设置与 Kafka 的 broker.rack 配置相对应。

仅适用于 Kafka 2.4.0 及更高版本。请参阅 KIP-392

connections_max_idle_ms

编辑
  • 值类型为 数字
  • 默认值为 540000 毫秒(9 分钟)。

在此配置指定的毫秒数后关闭空闲连接。

consumer_threads

编辑
  • 值类型为 数字
  • 默认值为 1

理想情况下,您应该拥有与分区数一样多的线程以实现完美的平衡,即线程数多于分区数意味着某些线程将处于空闲状态。

decorate_events

编辑
  • 值类型为 字符串
  • 接受的值为:

    • none:不添加元数据
    • basic:添加记录的属性
    • extended: 记录的属性,会添加头部信息(仅限于使用 UTF-8 编码的值的头部信息)
    • false: 已弃用的 none 别名
    • true: 已弃用的 basic 别名
  • 默认值是 none

可选项,用于将 Kafka 元数据(如主题、消息大小和头部键值)添加到事件中。这会在 Logstash 事件中添加一个名为 kafka 的字段,其中包含以下属性

  • topic: 此消息所属的主题
  • consumer_group: 读取此事件时使用的消费者组
  • partition: 此消息所属的分区
  • offset: 此消息所属分区的偏移量
  • key: 包含消息键的 ByteBuffer

auto_create_topics 

编辑

  * 值类型是 布尔值 * 默认值是 true

控制在订阅不存在的主题时是否自动创建该主题。只有当此配置设置为 true 并且代理上使用 auto.create.topics.enable 启用了自动创建主题时,才会自动创建主题;否则不允许自动创建主题。

enable_auto_commit

编辑

当进程失败时,此提交的偏移量将用作开始消费的位置。

如果为 true,则定期将消费者已返回的消息的偏移量提交到 Kafka。如果值为 false,则每次消费者将从主题获取的数据写入内存或持久队列时,都会提交偏移量。

exclude_internal_topics

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

是否应将来自内部主题(例如偏移量)的记录公开给消费者。如果设置为 true,则接收来自内部主题的记录的唯一方法是订阅该主题。

fetch_max_bytes

编辑
  • 值类型为 数字
  • 默认值为 52428800 (50MB)

服务器应该为获取请求返回的最大数据量。这不是绝对的最大值,如果获取请求的第一个非空分区中的第一条消息大于此值,则仍将返回该消息,以确保消费者可以取得进展。

fetch_max_wait_ms

编辑
  • 值类型为 数字
  • 默认值是 500 毫秒。

如果数据不足以立即满足 fetch_min_bytes,则服务器在响应获取请求之前将阻塞的最大时间量。该值应小于或等于 poll_timeout_ms 中使用的超时时间。

fetch_min_bytes

编辑
  • 值类型为 数字
  • 此设置没有默认值。

服务器应该为获取请求返回的最小数据量。如果可用数据不足,则请求将等待积累这么多数据,然后再响应请求。

group_id

编辑
  • 值类型为 字符串
  • 默认值为 "logstash"

此消费者所属的组的标识符。消费者组是由多个处理器组成的单个逻辑订阅者。主题中的消息将分发给所有具有相同 group_id 的 Logstash 实例。

当在单个管道中使用多个输入,从不同的主题读取数据时,必须为每个输入设置不同的 group_id => ...。建议也设置唯一的 client_id => ...

group_instance_id

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

此 Logstash Kafka 消费者的静态成员身份标识符。静态成员资格功能在 KIP-345 中引入,在 Kafka 属性 group.instance.id 下可用。其目的是避免在消费者下线后必须转发大量数据的情况下进行重新平衡。此功能可以缓解服务状态繁重的情况,其中从实例 A 到 B 的一个主题分区的重新平衡会导致大量数据传输。频繁下线/上线的客户端可以使用此选项避免频繁和繁重的重新平衡。

group_instance_id 设置在属于同一 group_id 的所有客户端中必须是唯一的。否则,另一个连接具有相同 group.instance.id 值的客户端将导致最旧的实例断开连接。您可以将此值设置为使用主机名、IP 或任何唯一标识客户端应用程序的信息。

在配置多个线程且 consumer_threads 大于 1 的情况下,会在 group_instance_id 中追加一个后缀,以避免冲突。

heartbeat_interval_ms

编辑
  • 值类型为 数字
  • 默认值是 3000 毫秒(3 秒)。

向消费者协调器发送心跳的预期时间间隔。心跳用于确保消费者的会话保持活动状态,并在新消费者加入或离开组时促进重新平衡。该值必须设置得低于 session.timeout.ms,但通常应设置为该值的 1/3 或更低。可以将其调整得更低,以控制正常重新平衡的预期时间。

isolation_level

编辑
  • 值类型为 字符串
  • 默认值是 "read_uncommitted"

控制如何读取以事务方式写入的消息。如果设置为 read_committed,则轮询消息将仅返回已提交的事务性消息。如果设置为 read_uncommitted(默认值),则轮询消息将返回所有消息,即使是已中止的事务性消息。在任一模式下,都将无条件返回非事务性消息。

jaas_path

编辑
  • 值类型是 路径
  • 此设置没有默认值。

Java 身份验证和授权服务 (JAAS) API 为 Kafka 提供用户身份验证和授权服务。此设置提供 JAAS 文件的路径。Kafka 客户端的示例 JAAS 文件

KafkaClient {
  com.sun.security.auth.module.Krb5LoginModule required
  useTicketCache=true
  renewTicket=true
  serviceName="kafka";
  };

请注意,在配置文件中指定 jaas_pathkerberos_config 会将它们添加到全局 JVM 系统属性中。这意味着如果您有多个 Kafka 输入,它们都将共享相同的 jaas_pathkerberos_config。如果这不是期望的行为,则必须在不同的 JVM 实例上运行 Logstash 的单独实例。

kerberos_config

编辑
  • 值类型是 路径
  • 此设置没有默认值。

Kerberos 配置文件的可选路径。这是 https://web.mit.edu/kerberos/krb5-1.12/doc/admin/conf_files/krb5_conf.html 中详细介绍的 krb5.conf 样式。

key_deserializer_class

编辑
  • 值类型为 字符串
  • 默认值是 "org.apache.kafka.common.serialization.StringDeserializer"

用于反序列化记录键的 Java 类

max_partition_fetch_bytes

编辑
  • 值类型为 数字
  • 默认值是 1048576 (1MB)。

服务器将返回的每个分区的最大数据量。请求使用的最大总内存将为 #partitions * max.partition.fetch.bytes。此大小必须至少与服务器允许的最大消息大小一样大,否则生产者可能会发送大于消费者可以获取的消息。如果发生这种情况,消费者可能会在尝试获取某个分区上的大消息时卡住。

max_poll_interval_ms

编辑
  • 值类型为 数字
  • 默认值是 300000 毫秒(5 分钟)。

在使用消费者组管理时,调用 poll() 的最大延迟时间。这为消费者在获取更多记录之前可以空闲的时间设置了上限。如果未在此超时到期之前调用 poll(),则认为消费者失败,并且该组将重新平衡,以便将分区重新分配给另一个成员。

max_poll_records

编辑
  • 值类型为 数字
  • 默认值是 500

在单个 poll() 调用中返回的最大记录数。

metadata_max_age_ms

编辑
  • 值类型为 数字
  • 默认值是 300000 毫秒(5 分钟)。

即使我们没有看到任何分区领导权的更改,也强制刷新元数据的时间间隔(以毫秒为单位),以便主动发现任何新的代理或分区。

partition_assignment_strategy

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

客户端用于在消费者实例之间分配分区所有权的分区分配策略的名称,支持的选项包括

  • range
  • round_robin
  • sticky
  • cooperative_sticky

这些映射到 Kafka 相应的 ConsumerPartitionAssignor 实现。

poll_timeout_ms

编辑
  • 值类型为 数字
  • 默认值是 100 毫秒。

Kafka 消费者将等待从主题接收新消息的时间。

在订阅一组主题后,Kafka 消费者会在轮询时自动加入该组。插件循环中的轮询可确保消费者处于活动状态。在底层,Kafka 客户端会向服务器发送定期心跳信号。超时指定在每次轮询时等待输入阻塞的时间。

receive_buffer_bytes

编辑
  • 值类型为 数字
  • 默认值是 32768 (32KB)。

读取数据时要使用的 TCP 接收缓冲区 (SO_RCVBUF) 的大小。

reconnect_backoff_ms

编辑
  • 值类型为 数字
  • 默认值是 50 毫秒。

尝试重新连接到给定主机之前等待的时间。这避免了在紧密循环中重复连接到主机。此退避应用于消费者发送给代理的所有请求。

request_timeout_ms

编辑
  • 值类型为 数字
  • 默认值是 40000 毫秒(40 秒)。

此配置控制客户端等待请求响应的最大时间。如果在超时时间过去之前未收到响应,客户端将根据需要重新发送请求,或者在重试次数耗尽时使请求失败。

retry_backoff_ms

编辑
  • 值类型为 数字
  • 默认值是 100 毫秒。

在尝试重试对给定主题分区的失败的提取请求之前等待的时间。这避免了在紧密循环中重复提取和失败。

sasl_client_callback_handler_class

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

指定的 SASL 机制应使用的 SASL 客户端回调处理程序类。

sasl_jaas_config

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

此插件实例本地的 JAAS 配置设置,而不是使用 jaas_path 配置的配置文件设置,这些设置在 JVM 之间共享。这允许每个插件实例拥有自己的配置。

如果同时设置了 sasl_jaas_configjaas_path 配置,则此处的设置优先。

示例(Azure 事件中心设置)

    input {
      kafka {
        sasl_jaas_config => "org.apache.kafka.common.security.plain.PlainLoginModule required username='auser'  password='apassword';"
      }
    }

sasl_kerberos_service_name

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

Kafka 代理运行的 Kerberos 主体名称。这可以在 Kafka 的 JAAS 配置或 Kafka 的配置中定义。

sasl_mechanism

编辑
  • 值类型为 字符串
  • 默认值是 "GSSAPI"

用于客户端连接的SASL 机制。这可以是任何可用的安全提供程序的机制。GSSAPI 是默认机制。

schema_registry_key

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

设置用于访问远程 Schema Registry 的基本身份验证的用户名。

schema_registry_proxy

编辑
  • 值类型为 uri
  • 此设置没有默认值。

设置转发 HTTP 代理的地址。空字符串被视为未设置代理。

schema_registry_secret

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

设置用于访问远程 Schema Registry 的基本身份验证的密码。

schema_registry_ssl_keystore_location

编辑
  • 值类型是 路径
  • 此设置没有默认值。

如果需要架构注册表客户端身份验证,则此设置存储密钥库路径。

schema_registry_ssl_keystore_password

编辑
  • 值类型为 密码
  • 此设置没有默认值。

如果需要架构注册表身份验证,则此设置存储密钥库密码。

schema_registry_ssl_keystore_type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

密钥库文件的格式。它必须是 jksPKCS12

schema_registry_ssl_truststore_location

编辑
  • 值类型是 路径
  • 此设置没有默认值。

用于验证架构注册表证书的信任存储路径。

schema_registry_ssl_truststore_password

编辑
  • 值类型为 密码
  • 此设置没有默认值。

架构注册表信任存储密码。

schema_registry_ssl_truststore_type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

架构注册表信任存储文件的格式。它必须是 jksPKCS12

schema_registry_url

编辑
  • 值类型为 uri

指向 Schema Registry 服务实例的 URI,用于管理 Avro 架构。请确保已将用于反序列化指定主题数据的 Avro 架构上传到 Schema Registry 服务。架构必须遵循模式为 <主题名称>-value 的命名约定。

使用 Schema Registry 配置选项或 value_deserializer_class 配置选项,但不能同时使用两者。

schema_registry_validation

编辑
  • 值可以是:autoskip
  • 默认值是 "auto"

在大多数情况下,默认设置 auto 不需要更改。

当使用架构注册表时,默认情况下,插件会在注册期间、处理事件之前检查连接并验证架构注册表。在某些情况下,当它尝试验证已通过身份验证的架构注册表时,此过程可能会失败,从而导致插件崩溃。此设置允许插件在注册期间跳过验证,从而允许插件继续并处理事件。请注意,配置错误的架构注册表仍会阻止插件处理事件。

security_protocol

编辑
  • 值可以是:PLAINTEXTSSLSASL_PLAINTEXTSASL_SSL
  • 默认值是 "PLAINTEXT"

要使用的安全协议,可以是 PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL 中的任何一种

send_buffer_bytes

编辑
  • 值类型为 数字
  • 默认值是 131072 (128KB)。

发送数据时要使用的 TCP 发送缓冲区 (SO_SNDBUF) 的大小

session_timeout_ms

编辑
  • 值类型为 数字
  • 默认值是 10000 毫秒(10 秒)。

如果未调用 poll_timeout_ms,则超过此超时时间后,消费者将被标记为死,并为 group_id 标识的组触发重新平衡操作

ssl_endpoint_identification_algorithm

编辑
  • 值类型为 字符串
  • 默认值是 "https"

端点标识算法,默认为 "https"。设置为空字符串 "" 可禁用端点验证

ssl_key_password

编辑
  • 值类型为 密码
  • 此设置没有默认值。

密钥存储文件中私钥的密码。

ssl_keystore_location

编辑
  • 值类型是 路径
  • 此设置没有默认值。

如果需要客户端身份验证,则此设置存储密钥库路径。

ssl_keystore_password

编辑
  • 值类型为 密码
  • 此设置没有默认值。

如果需要客户端身份验证,则此设置存储密钥库密码

ssl_keystore_type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

密钥库文件的格式。它必须是 jksPKCS12

ssl_truststore_location

编辑
  • 值类型是 路径
  • 此设置没有默认值。

用于验证 Kafka 代理证书的 JKS 信任存储路径。

ssl_truststore_password

编辑
  • 值类型为 密码
  • 此设置没有默认值。

信任存储密码。

ssl_truststore_type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

信任存储文件的格式。它必须是 jksPKCS12

topics

编辑
  • 值类型为 数组
  • 默认值是 ["logstash"]

要订阅的主题列表,默认为 ["logstash"]。

topics_pattern

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

要订阅的主题正则表达式模式。

通过从代理检索完整的主题名称列表并在本地应用模式来完成正则表达式过滤。当与具有大量主题的代理一起使用时,此操作可能非常缓慢,尤其是在有很多消费者的情况下。

当代理配置了某些带有 ACL 规则的主题并且它们缺少 DESCRIBE 权限时,会发生订阅,但在代理端会记录下某些主题的订阅被拒绝给配置的用户。

value_deserializer_class

编辑
  • 值类型为 字符串
  • 默认值是 "org.apache.kafka.common.serialization.StringDeserializer"

用于反序列化记录值的 Java 类。仅当您不使用 Schema Registry 时,才能使用自定义值反序列化器。使用 value_deserializer_class 配置选项或 schema_registry_url 配置选项,但不能同时使用两者。

常用选项

编辑

所有输入插件都支持这些配置选项

设置 输入类型 必需

add_field

hash

codec

codec

enable_metric

布尔值

id

字符串

tags

数组

type

字符串

add_field

编辑
  • 值类型为 哈希
  • 默认值是 {}

向事件添加字段

codec

编辑

用于输入数据的编解码器。输入编解码器是在数据进入输入之前解码数据的便捷方法,而无需在 Logstash 管道中单独的过滤器。

enable_metric

编辑

禁用或启用此特定插件实例的指标日志记录,默认情况下我们记录所有可以记录的指标,但您可以禁用特定插件的指标收集。

  • 值类型为 字符串
  • 此设置没有默认值。

向插件配置添加唯一的 ID。如果未指定 ID,Logstash 将生成一个。强烈建议在配置中设置此 ID。当您有两个或多个相同类型的插件时,此操作特别有用,例如,如果您有 2 个 kafka 输入。在这种情况下添加命名 ID 将有助于在使用监视 API 时监视 Logstash。

input {
  kafka {
    id => "my_plugin_id"
  }
}

id 字段中的变量替换仅支持环境变量,不支持使用机密存储中的值。

tags

编辑
  • 值类型为 数组
  • 此设置没有默认值。

向您的事件添加任意数量的任意标签。

这可以帮助稍后进行处理。

type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

向此输入处理的所有事件添加 type 字段。

类型主要用于过滤器激活。

该类型作为事件本身的一部分存储,因此您也可以使用该类型在 Kibana 中搜索它。

如果您尝试在已经具有类型的事件上设置类型(例如,当您从发件人向索引器发送事件时),则新的输入不会覆盖现有类型。在发件人处设置的类型会与该事件的生命周期保持一致,即使将其发送到另一个 Logstash 服务器也是如此。