配置 Elasticsearch 输出编辑

Elasticsearch 输出使用 Elasticsearch HTTP API 将事件直接发送到 Elasticsearch。

示例配置

output.elasticsearch:
  hosts: ["https://myEShost:9200"] 

要启用 SSL,请将 https 添加到在 *hosts* 下定义的所有 URL。

当通过 elasticsearch 输出将数据发送到安全集群时,Filebeat 可以使用以下任何身份验证方法

  • 基本身份验证凭据(用户名和密码)。
  • 基于令牌(API 密钥)的身份验证。
  • 公钥基础设施 (PKI) 证书。

基本身份验证

output.elasticsearch:
  hosts: ["https://myEShost:9200"]
  username: "filebeat_writer"
  password: "YOUR_PASSWORD"

API 密钥身份验证

output.elasticsearch:
  hosts: ["https://myEShost:9200"]
  api_key: "ZCV7VnwBgnX0T19fN8Qe:KnR6yE41RrSowb0kQ0HWoA"

PKI 证书身份验证

output.elasticsearch:
  hosts: ["https://myEShost:9200"]
  ssl.certificate: "/etc/pki/client/cert.pem"
  ssl.key: "/etc/pki/client/cert.key"

有关每种身份验证方法的详细信息,请参阅 与 Elasticsearch 进行安全通信

兼容性编辑

此输出适用于所有兼容版本的 Elasticsearch。请参阅 Elastic 支持矩阵

为了获得最佳体验,Filebeat 仅连接到版本至少与 Beat 相同的实例。可以通过设置 output.elasticsearch.allow_older_versions 来禁用此检查。

配置选项编辑

您可以在 filebeat.yml 配置文件的 elasticsearch 部分中指定以下选项

enabled编辑

启用配置是一个布尔设置,用于启用或禁用输出。如果设置为 false,则禁用输出。

默认值为 true

hosts编辑

要连接的 Elasticsearch 节点列表。事件以循环方式分发到这些节点。如果一个节点变得不可达,则事件会自动发送到另一个节点。每个 Elasticsearch 节点都可以定义为 URLIP:PORT。例如:http://192.15.3.2https://es.found.io:9230192.24.3.2:9300。如果未指定端口,则使用 9200

当节点定义为 IP:PORT 时,*方案* 和 *路径* 取自 protocolpath 配置选项。

output.elasticsearch:
  hosts: ["10.45.3.2:9220", "10.45.3.1:9230"] 
  protocol: https
  path: /elasticsearch

在前面的示例中,Elasticsearch 节点在 https://10.45.3.2:9220/elasticsearchhttps://10.45.3.1:9230/elasticsearch 处可用。

compression_level编辑

gzip 压缩级别。将此值设置为 0 将禁用压缩。压缩级别必须在 1(速度最快)到 9(压缩率最高)的范围内。

提高压缩级别将减少网络使用量,但会增加 CPU 使用量。

默认值为 1

escape_html编辑

配置字符串中 HTML 的转义。设置为 true 以启用转义。

默认值为 false

workerworkers编辑

每个已配置主机将事件发布到 Elasticsearch 的工作线程数。这最适合在启用负载均衡模式时使用。例如:如果您有 2 个主机和 3 个工作线程,则总共会启动 6 个工作线程(每个主机 3 个)。

默认值为 1

loadbalance编辑

当设置 loadbalance: true 时,Filebeat 连接到所有已配置的主机,并通过所有连接并行发送数据。如果连接失败,则数据将发送到剩余的主机,直到重新建立连接。只要 Filebeat 可以连接到至少一个已配置的主机,数据就会继续发送。

当设置 loadbalance: false 时,Filebeat 一次将数据发送到单个主机。目标主机是从已配置主机列表中随机选择的,所有数据都发送到该目标主机,直到连接失败,然后才会选择新的目标主机。只要 Filebeat 可以连接到至少一个已配置的主机,数据就会继续发送。

默认值为 true

output.elasticsearch:
  hosts: ["localhost:9200", "localhost:9201"]
  loadbalance: true

api_key编辑

您可以使用 API 密钥来保护与 Elasticsearch 的通信,而不是使用用户名和密码。该值必须是 API 密钥的 ID 和 API 密钥,并用冒号连接:id:api_key

有关更多信息,请参阅 使用 API 密钥授予访问权限

username编辑

用于连接到 Elasticsearch 的基本身份验证用户名。

此用户需要将事件发布到 Elasticsearch 所需的权限。要创建这样的用户,请参阅 创建*发布*用户

password编辑

用于连接到 Elasticsearch 的基本身份验证密码。

parameters编辑

HTTP 参数字典,用于在 url 中传递索引操作。

protocol编辑

Elasticsearch 可访问的协议名称。选项包括:httphttps。默认值为 http。但是,如果您为 hosts 指定 URL,则 protocol 的值将被您在 URL 中指定的任何方案覆盖。

path编辑

一个 HTTP 路径前缀,它将被添加到 HTTP API 调用的前面。这在 Elasticsearch 监听 HTTP 反向代理(该代理在自定义前缀下导出 API)的情况下非常有用。

headers编辑

要添加到 Elasticsearch 输出创建的每个请求中的自定义 HTTP 标头。示例

output.elasticsearch.headers:
  X-My-Header: Header contents

可以通过用逗号分隔多个标头值来为同一个标头名称指定多个标头值。

proxy_disable编辑

如果设置为 true,则忽略所有代理设置,包括 HTTP_PROXYHTTPS_PROXY 变量。

proxy_url编辑

连接到 Elasticsearch 服务器时要使用的代理的 URL。该值必须是完整的 URL。如果未通过配置文件指定值,则使用代理环境变量。有关环境变量的更多信息,请参阅 Go 文档

proxy_headers编辑

在 CONNECT 请求期间发送到代理的附加标头。

index编辑

使用每日索引时要将事件写入到的索引名称。默认值为 "filebeat-%{[agent.version]}-%{+yyyy.MM.dd}",例如,"filebeat-8.14.3-2024-07-18"。如果更改此设置,您还需要配置 setup.template.namesetup.template.pattern 选项(请参阅 Elasticsearch 索引模板)。

如果您使用的是预构建的 Kibana 仪表板,则还需要设置 setup.dashboards.index 选项(请参阅 Kibana 仪表板)。

启用 索引生命周期管理 (ILM) 后,默认的 index"filebeat-%{[agent.version]}-%{+yyyy.MM.dd}-%{index_num}",例如,"filebeat-8.14.3-2024-07-18-000001"。启用 ILM 后,将忽略自定义 index 设置。如果您要将事件发送到支持索引生命周期管理的集群,请参阅 索引生命周期管理 (ILM),了解如何更改索引名称。

您可以使用格式字符串动态设置索引,以访问任何事件字段。例如,此配置使用自定义字段 fields.log_type 来设置索引

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  index: "%{[fields.log_type]}-%{[agent.version]}-%{+yyyy.MM.dd}" 

我们建议在名称中包含 agent.version,以避免在升级时出现映射问题。

使用此配置,所有 log_type: normal 的事件都将发送到名为 normal-8.14.3-2024-07-18 的索引,所有 log_type: critical 的事件都将发送到名为 critical-8.14.3-2024-07-18 的索引。

要了解如何将自定义字段添加到事件,请参阅 fields 选项。

请参阅 indices 设置,了解动态设置索引的其他方法。

indices编辑

索引选择器规则数组。每条规则都指定用于匹配规则的事件的索引。在发布期间,Filebeat 使用数组中第一个匹配的规则。规则可以包含条件、基于格式字符串的字段和名称映射。如果缺少 indices 设置或没有规则匹配,则使用 index 设置。

index 类似,定义自定义 indices 将禁用 索引生命周期管理 (ILM)

规则设置

index
要使用的索引格式字符串。如果此字符串包含字段引用,例如 %{[fields.name]},则这些字段必须存在,否则规则将失败。
mappings
一个字典,它接受 index 返回的值并将其映射到新名称。
default
如果 mappings 未找到匹配项,则使用的默认字符串值。
when
为了执行当前规则必须满足的条件。处理器支持的所有 条件 在此处也受支持。

以下示例根据 message 字段是否包含指定的字符串来设置索引

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  indices:
    - index: "warning-%{[agent.version]}-%{+yyyy.MM.dd}"
      when.contains:
        message: "WARN"
    - index: "error-%{[agent.version]}-%{+yyyy.MM.dd}"
      when.contains:
        message: "ERR"

此配置生成名为 warning-8.14.3-2024-07-18error-8.14.3-2024-07-18 的索引(如果未找到匹配项,则添加默认索引)。

以下示例通过获取 index 格式字符串返回的名称并将其映射到用于索引的新名称来设置索引

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  indices:
    - index: "%{[fields.log_type]}"
      mappings:
        critical: "sev1"
        normal: "sev2"
      default: "sev3"

此配置生成名为 sev1sev2sev3 的索引。

mappings 设置简化了配置,但仅限于字符串值。您不能在映射对中指定格式字符串。

ilm编辑

索引生命周期管理的配置选项。

有关更多信息,请参阅 索引生命周期管理 (ILM)

pipeline编辑

一个格式字符串值,用于指定要将事件写入的摄取管道。

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  pipeline: my_pipeline_id

有关更多信息,请参阅 使用摄取管道解析数据

您可以使用格式字符串动态设置摄取管道以访问任何事件字段。例如,此配置使用自定义字段 fields.log_type 来设置每个事件的管道

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  pipeline: "%{[fields.log_type]}_pipeline"

使用此配置,log_type: normal 的所有事件都将发送到名为 normal_pipeline 的管道,而 log_type: critical 的所有事件都将发送到名为 critical_pipeline 的管道。

要了解如何将自定义字段添加到事件,请参阅 fields 选项。

有关动态设置摄取管道的其他方法,请参阅 pipelines 设置。

pipelines编辑

管道选择器规则数组。每条规则都指定用于匹配规则的事件的摄取管道。在发布期间,Filebeat 使用数组中第一个匹配的规则。规则可以包含条件、基于格式字符串的字段和名称映射。如果缺少 pipelines 设置或没有规则匹配,则使用 pipeline 设置。

规则设置

pipeline
要使用的管道格式字符串。如果此字符串包含字段引用,例如 %{[fields.name]},则这些字段必须存在,否则规则将失败。
mappings
一个字典,它接受 pipeline 返回的值并将其映射到新名称。
default
如果 mappings 未找到匹配项,则使用的默认字符串值。
when
为了执行当前规则必须满足的条件。处理器支持的所有 条件 在此处也受支持。

以下示例根据 message 字段是否包含指定的字符串将事件发送到特定管道

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  pipelines:
    - pipeline: "warning_pipeline"
      when.contains:
        message: "WARN"
    - pipeline: "error_pipeline"
      when.contains:
        message: "ERR"

以下示例通过获取 pipeline 格式字符串返回的名称并将其映射到用于管道的名称来设置管道

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  pipelines:
    - pipeline: "%{[fields.log_type]}"
      mappings:
        critical: "sev1_pipeline"
        normal: "sev2_pipeline"
      default: "sev3_pipeline"

使用此配置,log_type: critical 的所有事件都将发送到 sev1_pipelinelog_type: normal 的所有事件都将发送到 sev2_pipeline,所有其他事件都将发送到 sev3_pipeline

有关摄取管道的更多信息,请参阅 使用摄取管道解析数据

max_retries编辑

Filebeat 忽略 max_retries 设置并无限期重试。

bulk_max_size编辑

在单个 Elasticsearch 批量 API 索引请求中批量处理的最大事件数。默认值为 1600。

可以将事件收集到批次中。Filebeat 会将从队列中读取的、大于 bulk_max_size 的批次拆分为多个批次。

指定更大的批次大小可以通过降低发送事件的开销来提高性能。但是,大批量大小也会增加处理时间,这可能会导致 API 错误、连接终止、发布请求超时,最终导致吞吐量降低。

bulk_max_size 设置为小于或等于 0 的值将禁用批次拆分。禁用拆分后,队列将决定批次中包含的事件数。

backoff.init编辑

网络错误后,在尝试重新连接到 Elasticsearch 之前等待的秒数。等待 backoff.init 秒后,Filebeat 尝试重新连接。如果尝试失败,则退避计时器会呈指数级增加,直至达到 backoff.max。成功连接后,退避计时器将重置。默认值为 1s

backoff.max编辑

网络错误后,在尝试连接到 Elasticsearch 之前等待的最大秒数。默认值为 60s

idle_connection_timeout编辑

空闲连接在关闭自身之前保持空闲状态的最长时间。零表示无限制。格式为 Go 语言持续时间(例如,60 秒为 60s)。默认值为 3 秒。

timeout编辑

Elasticsearch 请求的 HTTP 请求超时(以秒为单位)。默认值为 90。

allow_older_versions编辑

默认情况下,Filebeat 预计 Elasticsearch 实例的版本相同或更新,以提供最佳体验。我们建议您连接到相同版本,以确保 Filebeat 使用的所有功能在您的 Elasticsearch 实例中都可用。

例如,您可以在更新 Elastic Stack 期间禁用此检查,以便数据收集可以继续进行。

ssl编辑

SSL 参数的配置选项,例如用于基于 HTTPS 的连接的证书颁发机构。如果缺少 ssl 部分,则主机 CA 将用于到 Elasticsearch 的 HTTPS 连接。

有关更多信息,请参阅 使用 Elasticsearch 进行安全通信 指南或 SSL 配置参考

kerberos编辑

Kerberos 身份验证的配置选项。

有关更多信息,请参阅 Kerberos

non_indexable_policy编辑

指定当 Elasticsearch 集群明确拒绝文档时的行为,例如在映射冲突时。

drop编辑

默认行为,当 Elasticsearch 明确拒绝事件时,该事件将被丢弃。

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  non_indexable_policy.drop: ~
dead_letter_index编辑

此功能处于测试阶段,可能会发生变化。其设计和代码不如正式的 GA 功能成熟,因此按原样提供,不作任何保证。测试版功能不受正式 GA 功能的支持 SLA 的约束。

明确拒绝时,此策略将在下一批中重试该事件。但是,目标索引将更改为指定的索引。此外,事件的结构将更改为以下字段

message
包含原始事件的转义 JSON。
error.type
包含状态码
error.message
包含 Elasticsearch 返回的状态,描述原因
index
要将被拒绝的事件发送到的索引。
output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  non_indexable_policy.dead_letter_index:
    index: "my-dead-letter-index"

preset编辑

要应用于输出配置的性能预设。

output.elasticsearch:
  hosts: ["https://127.0.0.1:9200"]
  preset: balanced

性能预设根据所需的性能目标应用一组配置覆盖。如果设置,性能预设将覆盖其他配置标志,以匹配该预设的建议设置。有效选项包括:* balanced:通用效率的良好起点 * throughput:适用于高数据量,可能会增加 CPU 和内存需求 * scale:减少大规模低吞吐量部署中的环境资源使用 * latency:最大限度地缩短新数据在 Elasticsearch 中可见的时间 * custom:直接应用用户配置,无需覆盖

如果未指定,则默认为 custom

预设代表基于预期目标的当前建议;它们的效果可能会因版本而异,以便更好地适应这些目标。目前,预设具有以下效果

预设 balanced throughput scale latency

bulk_max_size

1600

1600

1600

50

worker

1

4

1

1

queue.mem.events

3200

12800

3200

4100

queue.mem.flush.min_events

1600

1600

1600

2050

queue.mem.flush.timeout

10 秒

5 秒

20 秒

1 秒

compression_level

1

1

1

1

idle_connection_timeout

3 秒

15 秒

1 秒

60 秒

Elasticsearch API编辑

Filebeat 将使用 Elasticsearch 的 _bulk API,事件按其到达发布管道的顺序发送,单个 _bulk 请求可能包含来自不同输入/模块的事件。临时故障将重试。

将检查每个事件的状态代码并按如下方式处理

  • < 300:该事件计为 events.acked
  • 409(冲突):该事件计为 events.duplicates
  • 429(请求过多):该事件计为 events.toomany
  • > 399 and < 500:应用 non_indexable_policy