配置 Elasticsearch 输出
编辑配置 Elasticsearch 输出编辑
Elasticsearch 输出使用 Elasticsearch HTTP API 将事件直接发送到 Elasticsearch。
示例配置
当通过 elasticsearch
输出将数据发送到安全集群时,Filebeat 可以使用以下任何身份验证方法
- 基本身份验证凭据(用户名和密码)。
- 基于令牌(API 密钥)的身份验证。
- 公钥基础设施 (PKI) 证书。
基本身份验证
output.elasticsearch: hosts: ["https://myEShost:9200"] username: "filebeat_writer" password: "YOUR_PASSWORD"
API 密钥身份验证
output.elasticsearch: hosts: ["https://myEShost:9200"] api_key: "ZCV7VnwBgnX0T19fN8Qe:KnR6yE41RrSowb0kQ0HWoA"
PKI 证书身份验证
output.elasticsearch: hosts: ["https://myEShost:9200"] ssl.certificate: "/etc/pki/client/cert.pem" ssl.key: "/etc/pki/client/cert.key"
有关每种身份验证方法的详细信息,请参阅 与 Elasticsearch 进行安全通信。
兼容性编辑
此输出适用于所有兼容版本的 Elasticsearch。请参阅 Elastic 支持矩阵。
为了获得最佳体验,Filebeat 仅连接到版本至少与 Beat 相同的实例。可以通过设置 output.elasticsearch.allow_older_versions
来禁用此检查。
配置选项编辑
您可以在 filebeat.yml
配置文件的 elasticsearch
部分中指定以下选项
hosts
编辑
要连接的 Elasticsearch 节点列表。事件以循环方式分发到这些节点。如果一个节点变得不可达,则事件会自动发送到另一个节点。每个 Elasticsearch 节点都可以定义为 URL
或 IP:PORT
。例如:http://192.15.3.2
、https://es.found.io:9230
或 192.24.3.2:9300
。如果未指定端口,则使用 9200
。
output.elasticsearch: hosts: ["10.45.3.2:9220", "10.45.3.1:9230"] protocol: https path: /elasticsearch
在前面的示例中,Elasticsearch 节点在 https://10.45.3.2:9220/elasticsearch
和 https://10.45.3.1:9230/elasticsearch
处可用。
compression_level
编辑
gzip 压缩级别。将此值设置为 0
将禁用压缩。压缩级别必须在 1
(速度最快)到 9
(压缩率最高)的范围内。
提高压缩级别将减少网络使用量,但会增加 CPU 使用量。
默认值为 1
。
worker
或 workers
编辑
每个已配置主机将事件发布到 Elasticsearch 的工作线程数。这最适合在启用负载均衡模式时使用。例如:如果您有 2 个主机和 3 个工作线程,则总共会启动 6 个工作线程(每个主机 3 个)。
默认值为 1
。
loadbalance
编辑
当设置 loadbalance: true
时,Filebeat 连接到所有已配置的主机,并通过所有连接并行发送数据。如果连接失败,则数据将发送到剩余的主机,直到重新建立连接。只要 Filebeat 可以连接到至少一个已配置的主机,数据就会继续发送。
当设置 loadbalance: false
时,Filebeat 一次将数据发送到单个主机。目标主机是从已配置主机列表中随机选择的,所有数据都发送到该目标主机,直到连接失败,然后才会选择新的目标主机。只要 Filebeat 可以连接到至少一个已配置的主机,数据就会继续发送。
默认值为 true
。
output.elasticsearch: hosts: ["localhost:9200", "localhost:9201"] loadbalance: true
api_key
编辑
您可以使用 API 密钥来保护与 Elasticsearch 的通信,而不是使用用户名和密码。该值必须是 API 密钥的 ID 和 API 密钥,并用冒号连接:id:api_key
。
有关更多信息,请参阅 使用 API 密钥授予访问权限。
password
编辑
用于连接到 Elasticsearch 的基本身份验证密码。
parameters
编辑
HTTP 参数字典,用于在 url 中传递索引操作。
protocol
编辑
Elasticsearch 可访问的协议名称。选项包括:http
或 https
。默认值为 http
。但是,如果您为 hosts
指定 URL,则 protocol
的值将被您在 URL 中指定的任何方案覆盖。
path
编辑
一个 HTTP 路径前缀,它将被添加到 HTTP API 调用的前面。这在 Elasticsearch 监听 HTTP 反向代理(该代理在自定义前缀下导出 API)的情况下非常有用。
headers
编辑
要添加到 Elasticsearch 输出创建的每个请求中的自定义 HTTP 标头。示例
output.elasticsearch.headers: X-My-Header: Header contents
可以通过用逗号分隔多个标头值来为同一个标头名称指定多个标头值。
proxy_disable
编辑
如果设置为 true
,则忽略所有代理设置,包括 HTTP_PROXY
和 HTTPS_PROXY
变量。
proxy_url
编辑
连接到 Elasticsearch 服务器时要使用的代理的 URL。该值必须是完整的 URL。如果未通过配置文件指定值,则使用代理环境变量。有关环境变量的更多信息,请参阅 Go 文档。
proxy_headers
编辑
在 CONNECT 请求期间发送到代理的附加标头。
index
编辑
使用每日索引时要将事件写入到的索引名称。默认值为 "filebeat-%{[agent.version]}-%{+yyyy.MM.dd}"
,例如,"filebeat-8.14.3-2024-07-18"
。如果更改此设置,您还需要配置 setup.template.name
和 setup.template.pattern
选项(请参阅 Elasticsearch 索引模板)。
如果您使用的是预构建的 Kibana 仪表板,则还需要设置 setup.dashboards.index
选项(请参阅 Kibana 仪表板)。
启用 索引生命周期管理 (ILM) 后,默认的 index
为 "filebeat-%{[agent.version]}-%{+yyyy.MM.dd}-%{index_num}"
,例如,"filebeat-8.14.3-2024-07-18-000001"
。启用 ILM 后,将忽略自定义 index
设置。如果您要将事件发送到支持索引生命周期管理的集群,请参阅 索引生命周期管理 (ILM),了解如何更改索引名称。
您可以使用格式字符串动态设置索引,以访问任何事件字段。例如,此配置使用自定义字段 fields.log_type
来设置索引
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] index: "%{[fields.log_type]}-%{[agent.version]}-%{+yyyy.MM.dd}"
使用此配置,所有 log_type: normal
的事件都将发送到名为 normal-8.14.3-2024-07-18
的索引,所有 log_type: critical
的事件都将发送到名为 critical-8.14.3-2024-07-18
的索引。
要了解如何将自定义字段添加到事件,请参阅 fields
选项。
请参阅 indices
设置,了解动态设置索引的其他方法。
indices
编辑
索引选择器规则数组。每条规则都指定用于匹配规则的事件的索引。在发布期间,Filebeat 使用数组中第一个匹配的规则。规则可以包含条件、基于格式字符串的字段和名称映射。如果缺少 indices
设置或没有规则匹配,则使用 index
设置。
与 index
类似,定义自定义 indices
将禁用 索引生命周期管理 (ILM)。
规则设置
-
index
- 要使用的索引格式字符串。如果此字符串包含字段引用,例如
%{[fields.name]}
,则这些字段必须存在,否则规则将失败。 -
mappings
- 一个字典,它接受
index
返回的值并将其映射到新名称。 -
default
- 如果
mappings
未找到匹配项,则使用的默认字符串值。 -
when
- 为了执行当前规则必须满足的条件。处理器支持的所有 条件 在此处也受支持。
以下示例根据 message
字段是否包含指定的字符串来设置索引
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] indices: - index: "warning-%{[agent.version]}-%{+yyyy.MM.dd}" when.contains: message: "WARN" - index: "error-%{[agent.version]}-%{+yyyy.MM.dd}" when.contains: message: "ERR"
此配置生成名为 warning-8.14.3-2024-07-18
和 error-8.14.3-2024-07-18
的索引(如果未找到匹配项,则添加默认索引)。
以下示例通过获取 index
格式字符串返回的名称并将其映射到用于索引的新名称来设置索引
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] indices: - index: "%{[fields.log_type]}" mappings: critical: "sev1" normal: "sev2" default: "sev3"
此配置生成名为 sev1
、sev2
和 sev3
的索引。
mappings
设置简化了配置,但仅限于字符串值。您不能在映射对中指定格式字符串。
pipeline
编辑
一个格式字符串值,用于指定要将事件写入的摄取管道。
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] pipeline: my_pipeline_id
有关更多信息,请参阅 使用摄取管道解析数据。
您可以使用格式字符串动态设置摄取管道以访问任何事件字段。例如,此配置使用自定义字段 fields.log_type
来设置每个事件的管道
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] pipeline: "%{[fields.log_type]}_pipeline"
使用此配置,log_type: normal
的所有事件都将发送到名为 normal_pipeline
的管道,而 log_type: critical
的所有事件都将发送到名为 critical_pipeline
的管道。
要了解如何将自定义字段添加到事件,请参阅 fields
选项。
有关动态设置摄取管道的其他方法,请参阅 pipelines
设置。
pipelines
编辑
管道选择器规则数组。每条规则都指定用于匹配规则的事件的摄取管道。在发布期间,Filebeat 使用数组中第一个匹配的规则。规则可以包含条件、基于格式字符串的字段和名称映射。如果缺少 pipelines
设置或没有规则匹配,则使用 pipeline
设置。
规则设置
-
pipeline
- 要使用的管道格式字符串。如果此字符串包含字段引用,例如
%{[fields.name]}
,则这些字段必须存在,否则规则将失败。 -
mappings
- 一个字典,它接受
pipeline
返回的值并将其映射到新名称。 -
default
- 如果
mappings
未找到匹配项,则使用的默认字符串值。 -
when
- 为了执行当前规则必须满足的条件。处理器支持的所有 条件 在此处也受支持。
以下示例根据 message
字段是否包含指定的字符串将事件发送到特定管道
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] pipelines: - pipeline: "warning_pipeline" when.contains: message: "WARN" - pipeline: "error_pipeline" when.contains: message: "ERR"
以下示例通过获取 pipeline
格式字符串返回的名称并将其映射到用于管道的名称来设置管道
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] pipelines: - pipeline: "%{[fields.log_type]}" mappings: critical: "sev1_pipeline" normal: "sev2_pipeline" default: "sev3_pipeline"
使用此配置,log_type: critical
的所有事件都将发送到 sev1_pipeline
,log_type: normal
的所有事件都将发送到 sev2_pipeline
,所有其他事件都将发送到 sev3_pipeline
。
有关摄取管道的更多信息,请参阅 使用摄取管道解析数据。
max_retries
编辑
Filebeat 忽略 max_retries
设置并无限期重试。
bulk_max_size
编辑
在单个 Elasticsearch 批量 API 索引请求中批量处理的最大事件数。默认值为 1600。
可以将事件收集到批次中。Filebeat 会将从队列中读取的、大于 bulk_max_size
的批次拆分为多个批次。
指定更大的批次大小可以通过降低发送事件的开销来提高性能。但是,大批量大小也会增加处理时间,这可能会导致 API 错误、连接终止、发布请求超时,最终导致吞吐量降低。
将 bulk_max_size
设置为小于或等于 0 的值将禁用批次拆分。禁用拆分后,队列将决定批次中包含的事件数。
backoff.init
编辑
网络错误后,在尝试重新连接到 Elasticsearch 之前等待的秒数。等待 backoff.init
秒后,Filebeat 尝试重新连接。如果尝试失败,则退避计时器会呈指数级增加,直至达到 backoff.max
。成功连接后,退避计时器将重置。默认值为 1s
。
backoff.max
编辑
网络错误后,在尝试连接到 Elasticsearch 之前等待的最大秒数。默认值为 60s
。
idle_connection_timeout
编辑
空闲连接在关闭自身之前保持空闲状态的最长时间。零表示无限制。格式为 Go 语言持续时间(例如,60 秒为 60s)。默认值为 3 秒。
timeout
编辑
Elasticsearch 请求的 HTTP 请求超时(以秒为单位)。默认值为 90。
allow_older_versions
编辑
默认情况下,Filebeat 预计 Elasticsearch 实例的版本相同或更新,以提供最佳体验。我们建议您连接到相同版本,以确保 Filebeat 使用的所有功能在您的 Elasticsearch 实例中都可用。
例如,您可以在更新 Elastic Stack 期间禁用此检查,以便数据收集可以继续进行。
ssl
编辑
SSL 参数的配置选项,例如用于基于 HTTPS 的连接的证书颁发机构。如果缺少 ssl
部分,则主机 CA 将用于到 Elasticsearch 的 HTTPS 连接。
有关更多信息,请参阅 使用 Elasticsearch 进行安全通信 指南或 SSL 配置参考。
non_indexable_policy
编辑
指定当 Elasticsearch 集群明确拒绝文档时的行为,例如在映射冲突时。
drop
编辑
默认行为,当 Elasticsearch 明确拒绝事件时,该事件将被丢弃。
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] non_indexable_policy.drop: ~
dead_letter_index
编辑
此功能处于测试阶段,可能会发生变化。其设计和代码不如正式的 GA 功能成熟,因此按原样提供,不作任何保证。测试版功能不受正式 GA 功能的支持 SLA 的约束。
明确拒绝时,此策略将在下一批中重试该事件。但是,目标索引将更改为指定的索引。此外,事件的结构将更改为以下字段
- message
- 包含原始事件的转义 JSON。
- error.type
- 包含状态码
- error.message
- 包含 Elasticsearch 返回的状态,描述原因
-
index
- 要将被拒绝的事件发送到的索引。
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] non_indexable_policy.dead_letter_index: index: "my-dead-letter-index"
preset
编辑
要应用于输出配置的性能预设。
output.elasticsearch: hosts: ["https://127.0.0.1:9200"] preset: balanced
性能预设根据所需的性能目标应用一组配置覆盖。如果设置,性能预设将覆盖其他配置标志,以匹配该预设的建议设置。有效选项包括:* balanced
:通用效率的良好起点 * throughput
:适用于高数据量,可能会增加 CPU 和内存需求 * scale
:减少大规模低吞吐量部署中的环境资源使用 * latency
:最大限度地缩短新数据在 Elasticsearch 中可见的时间 * custom
:直接应用用户配置,无需覆盖
如果未指定,则默认为 custom
。
预设代表基于预期目标的当前建议;它们的效果可能会因版本而异,以便更好地适应这些目标。目前,预设具有以下效果
预设 | balanced | throughput | scale | latency |
---|---|---|---|---|
1600 |
1600 |
1600 |
50 |
|
1 |
4 |
1 |
1 |
|
3200 |
12800 |
3200 |
4100 |
|
1600 |
1600 |
1600 |
2050 |
|
|
|
|
|
|
1 |
1 |
1 |
1 |
|
|
|
|
|
Elasticsearch API编辑
Filebeat 将使用 Elasticsearch 的 _bulk
API,事件按其到达发布管道的顺序发送,单个 _bulk
请求可能包含来自不同输入/模块的事件。临时故障将重试。
将检查每个事件的状态代码并按如下方式处理
-
< 300
:该事件计为events.acked
-
409
(冲突):该事件计为events.duplicates
-
429
(请求过多):该事件计为events.toomany
-
> 399 and < 500
:应用non_indexable_policy
。