- Filebeat 参考其他版本
- Filebeat 概述
- 快速入门:安装和配置
- 设置和运行
- 升级
- Filebeat 的工作原理
- 配置
- 输入
- 模块
- 通用设置
- 项目路径
- 配置文件加载
- 输出
- Kerberos
- SSL
- 索引生命周期管理 (ILM)
- Elasticsearch 索引模板
- Kibana 端点
- Kibana 仪表板
- 处理器
- 定义处理器
- add_cloud_metadata
- add_cloudfoundry_metadata
- add_docker_metadata
- add_fields
- add_host_metadata
- add_id
- add_kubernetes_metadata
- add_labels
- add_locale
- add_network_direction
- add_nomad_metadata
- add_observer_metadata
- add_process_metadata
- add_tags
- append
- cache
- community_id
- convert
- copy_fields
- decode_base64_field
- decode_cef
- decode_csv_fields
- decode_duration
- decode_json_fields
- decode_xml
- decode_xml_wineventlog
- decompress_gzip_field
- detect_mime_type
- dissect
- dns
- drop_event
- drop_fields
- extract_array
- fingerprint
- include_fields
- move_fields
- parse_aws_vpc_flow_log
- rate_limit
- registered_domain
- rename
- replace
- script
- syslog
- timestamp
- translate_ldap_attribute
- translate_sid
- truncate_fields
- urldecode
- 自动发现
- 内部队列
- 日志记录
- HTTP 端点
- 正则表达式支持
- 检测
- 功能标志
- filebeat.reference.yml
- 操作指南
- 模块
- 模块概述
- ActiveMQ 模块
- Apache 模块
- Auditd 模块
- AWS 模块
- AWS Fargate 模块
- Azure 模块
- CEF 模块
- Check Point 模块
- Cisco 模块
- CoreDNS 模块
- CrowdStrike 模块
- Cyberark PAS 模块
- Elasticsearch 模块
- Envoyproxy 模块
- Fortinet 模块
- Google Cloud 模块
- Google Workspace 模块
- HAproxy 模块
- IBM MQ 模块
- Icinga 模块
- IIS 模块
- Iptables 模块
- Juniper 模块
- Kafka 模块
- Kibana 模块
- Logstash 模块
- Microsoft 模块
- MISP 模块
- MongoDB 模块
- MSSQL 模块
- MySQL 模块
- MySQL Enterprise 模块
- NATS 模块
- NetFlow 模块
- Nginx 模块
- Office 365 模块
- Okta 模块
- Oracle 模块
- Osquery 模块
- Palo Alto Networks 模块
- pensando 模块
- PostgreSQL 模块
- RabbitMQ 模块
- Redis 模块
- Salesforce 模块
- Santa 模块
- Snyk 模块
- Sophos 模块
- Suricata 模块
- System 模块
- Threat Intel 模块
- Traefik 模块
- Zeek (Bro) 模块
- ZooKeeper 模块
- Zoom 模块
- 导出的字段
- ActiveMQ 字段
- Apache 字段
- Auditd 字段
- AWS 字段
- AWS CloudWatch 字段
- AWS Fargate 字段
- Azure 字段
- Beat 字段
- 解码 CEF 处理器字段
- CEF 字段
- Checkpoint 字段
- Cisco 字段
- 云提供商元数据字段
- Coredns 字段
- Crowdstrike 字段
- CyberArk PAS 字段
- Docker 字段
- ECS 字段
- Elasticsearch 字段
- Envoyproxy 字段
- Fortinet 字段
- Google Cloud Platform (GCP) 字段
- google_workspace 字段
- HAProxy 字段
- 主机字段
- ibmmq 字段
- Icinga 字段
- IIS 字段
- iptables 字段
- Jolokia Discovery 自动发现提供程序字段
- Juniper JUNOS 字段
- Kafka 字段
- kibana 字段
- Kubernetes 字段
- 日志文件内容字段
- logstash 字段
- Lumberjack 字段
- Microsoft 字段
- MISP 字段
- mongodb 字段
- mssql 字段
- MySQL 字段
- MySQL Enterprise 字段
- NATS 字段
- NetFlow 字段
- Nginx 字段
- Office 365 字段
- Okta 字段
- Oracle 字段
- Osquery 字段
- panw 字段
- Pensando 字段
- PostgreSQL 字段
- 进程字段
- RabbitMQ 字段
- Redis 字段
- s3 字段
- Salesforce 字段
- Google Santa 字段
- Snyk 字段
- sophos 字段
- Suricata 字段
- System 字段
- threatintel 字段
- Traefik 字段
- Windows ETW 字段
- Zeek 字段
- ZooKeeper 字段
- Zoom 字段
- 监控
- 安全
- 故障排除
- 获取帮助
- 调试
- 了解记录的指标
- 常见问题
- 在使用 Kubernetes 元数据时提取容器 ID 时出错
- 无法从网络卷读取日志文件
- Filebeat 未从文件中收集行
- 打开的文件句柄过多
- 注册表文件太大
- Inode 重用导致 Filebeat 跳过行
- 日志轮换导致事件丢失或重复
- 打开的文件句柄导致 Windows 文件轮换出现问题
- Filebeat 占用过多 CPU
- Kibana 中的仪表板错误地分解数据字段
- 字段未在 Kibana 可视化中编制索引或可用
- Filebeat 未传输文件的最后一行
- Filebeat 长时间保持已删除文件的打开文件句柄
- Filebeat 使用过多带宽
- 加载配置文件时出错
- 发现意外或未知字符
- Logstash 连接不起作用
- 发布到 Logstash 失败,并显示“connection reset by peer”消息
- @metadata 在 Logstash 中丢失
- 不确定是使用 Logstash 还是 Beats
- SSL 客户端无法连接到 Logstash
- 监控 UI 显示的 Beats 比预期的少
- 仪表板无法定位索引模式
- 由于 MADV 设置导致高 RSS 内存使用率
- 为 Beats 做贡献
配置 Logstash 输出
编辑配置 Logstash 输出
编辑Logstash 输出通过 lumberjack 协议(运行在 TCP 之上)将事件直接发送到 Logstash。Logstash 允许对生成的事件进行额外的处理和路由。
先决条件
要将事件发送到 Logstash,您还需要创建一个 Logstash 配置管道,该管道监听传入的 Beats 连接并将接收到的事件索引到 Elasticsearch 中。有关更多信息,请参阅 Logstash 入门。另请参阅 Beats 输入和 Elasticsearch 输出插件的文档。
如果您希望使用 Logstash 对 Filebeat 收集的数据执行额外的处理,您需要配置 Filebeat 以使用 Logstash。
为此,请编辑 Filebeat 配置文件,通过注释掉 Elasticsearch 输出禁用它,并通过取消注释 Logstash 部分启用 Logstash 输出。
output.logstash: hosts: ["127.0.0.1:5044"]
hosts
选项指定 Logstash 服务器和端口 (5044
),Logstash 在该端口配置为监听传入的 Beats 连接。
对于此配置,您必须手动将索引模板加载到 Elasticsearch,因为自动加载模板的选项仅适用于 Elasticsearch 输出。
想将 Filebeat 模块 与 Logstash 一起使用吗?您需要进行一些额外的设置。有关更多信息,请参阅 使用 Filebeat 模块。
访问元数据字段
编辑发送到 Logstash 的每个事件都包含以下元数据字段,您可以在 Logstash 中使用这些字段进行索引和筛选。
Filebeat 使用 |
|
默认值为 filebeat。要更改此值,请在 Filebeat 配置文件中设置 |
|
当前版本的 Filebeat。 |
您可以从 Logstash 配置文件中访问此元数据,以根据元数据的内容动态设置值。
例如,以下 Logstash 配置文件指示 Logstash 使用 Filebeat 报告的索引将事件索引到 Elasticsearch 中。
input { beats { port => 5044 } } output { elasticsearch { hosts => ["https://127.0.0.1:9200"] index => "%{[@metadata][beat]}-%{[@metadata][version]}" action => "create" } }
|
使用此处显示的 Logstash 配置索引到 Elasticsearch 中的事件将类似于 Filebeat 直接索引到 Elasticsearch 中的事件。
如果未使用 ILM,请将 index
设置为 %{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}
,以便 Logstash 根据来自 Beats 的事件的 @timestamp
值每天创建一个索引。
兼容性
编辑此输出适用于所有兼容版本的 Logstash。请参阅 Elastic 支持矩阵。
配置选项
编辑您可以在 filebeat.yml
配置文件的 logstash
部分中指定以下选项。
hosts
编辑要连接的已知 Logstash 服务器列表。如果禁用负载平衡,但配置了多个主机,则会随机选择一个主机(没有优先级)。如果一个主机变得不可访问,则会随机选择另一个主机。
此列表中的所有条目都可以包含端口号。如果未指定数字,则将使用默认端口号 5044。
compression_level
编辑gzip 压缩级别。将此值设置为 0 将禁用压缩。压缩级别必须在 1(最快速度)到 9(最佳压缩)的范围内。
增加压缩级别将减少网络使用,但会增加 CPU 使用率。
默认值为 3。
worker
或 workers
编辑每个配置的主机将事件发布到 Logstash 的工作线程数。这最好与启用的负载平衡模式一起使用。示例:如果您有 2 个主机和 3 个工作线程,则总共启动 6 个工作线程(每个主机 3 个)。
loadbalance
编辑当设置 loadbalance: true
时,Filebeat 会连接到所有配置的主机,并通过所有连接并行发送数据。如果连接失败,数据将发送到其余主机,直到可以重新建立连接。只要 Filebeat 可以连接到至少一个配置的主机,数据仍会发送。
当设置 loadbalance: false
时,Filebeat 一次将数据发送到单个主机。目标主机是从配置的主机列表中随机选择的,所有数据都会发送到该目标,直到连接失败,然后选择新的目标。只要 Filebeat 可以连接到至少一个配置的主机,数据仍会发送。要随着时间的推移轮换浏览配置的主机列表,请将此选项与 ttl
设置结合使用,以在配置的时间间隔关闭连接并选择新的目标主机。
默认值为 false
。
output.logstash: hosts: ["localhost:5044", "localhost:5045"] loadbalance: true index: filebeat
ttl
编辑与 Logstash 的连接的生存时间,之后将重新建立连接。当 Logstash 主机代表负载均衡器时,此选项很有用。由于与 Logstash 主机的连接是粘性的,因此在负载均衡器后面操作可能会导致实例之间的负载分配不均匀。在连接上指定 TTL 可以实现实例之间相等的连接分配。指定 TTL 为 0 将禁用此功能。
默认值为 0。此设置接受 duration 数据类型值。
“ttl”选项尚不支持异步 Logstash 客户端(具有“pipelining”选项的客户端)。
pipelining
编辑配置在等待 Logstash 的 ACK 时异步发送到 Logstash 的批次数。只有在写入 pipelining
批次数量后,输出才会变为阻塞。如果配置的值为 0,则禁用管道传输。默认值为 2。
proxy_url
编辑连接到 Logstash 服务器时要使用的 SOCKS5 代理的 URL。该值必须是具有 socks5://
方案的 URL。与 Logstash 通信的协议不是基于 HTTP 的,因此不能使用 Web 代理。
如果 SOCKS5 代理服务器需要客户端身份验证,则用户名和密码可以嵌入到 URL 中,如示例所示。
使用代理时,主机名在代理服务器上解析,而不是在客户端上解析。您可以通过设置 proxy_use_local_resolver
选项来更改此行为。
output.logstash: hosts: ["remote-host:5044"] proxy_url: socks5://user:password@socks5-proxy:2233
proxy_use_local_resolver
编辑proxy_use_local_resolver
选项确定在使用代理时是否在本地解析 Logstash 主机名。默认值为 false,这意味着在使用代理时,名称解析发生在代理服务器上。
index
编辑要将事件写入的索引根名称。默认值为 Beat 名称。例如,"filebeat"
生成 "[filebeat-]8.17.0-YYYY.MM.DD"
索引(例如,"filebeat-8.17.0-2017.04.26"
)。
此参数的值将分配给 metadata.beat
字段。然后可以在 Logstash 的输出部分中将其作为 %{[@metadata][beat]}
访问。
ssl
编辑SSL 参数的配置选项,例如 Logstash 连接的根 CA。有关更多信息,请参阅 SSL。要使用 SSL,您还必须配置 Logstash 的 Beats 输入插件以使用 SSL/TLS。
timeout
编辑在超时之前等待 Logstash 服务器响应的秒数。默认值为 30(秒)。
max_retries
编辑Filebeat 忽略 max_retries
设置并无限期重试。
bulk_max_size
编辑单个 Logstash 请求中批量处理的最大事件数。默认值为 2048。
可以将事件收集到批次中。Filebeat 会将从队列中读取的、大于 bulk_max_size
的批次拆分为多个批次。
指定较大的批次大小可以通过降低发送事件的开销来提高性能。但是,较大的批次大小也会增加处理时间,这可能会导致 API 错误、连接终止、发布请求超时,并最终降低吞吐量。
将 bulk_max_size
设置为小于或等于 0 的值会禁用批次拆分。禁用拆分时,队列将决定批次中包含的事件数。
slow_start
编辑如果启用,则每个事务仅传输一批事件中的一部分事件。如果没有遇到错误,则要发送的事件数会增加到 bulk_max_size
。如果出现错误,则每个事务的事件数将再次减少。
默认值为 false
。
backoff.init
编辑在发生网络错误后尝试重新连接到 Logstash 之前要等待的秒数。等待 backoff.init
秒后,Filebeat 会尝试重新连接。如果尝试失败,则回退计时器将以指数方式增加到 backoff.max
。成功连接后,将重置回退计时器。默认值为 1 秒。
backoff.max
编辑在发生网络错误后尝试连接到 Logstash 之前要等待的最大秒数。默认值为 60 秒。
On this page