- Filebeat 参考其他版本
- Filebeat 概述
- 快速入门:安装和配置
- 设置和运行
- 升级
- Filebeat 的工作原理
- 配置
- 输入
- 模块
- 通用设置
- 项目路径
- 配置文件加载
- 输出
- Kerberos
- SSL
- 索引生命周期管理 (ILM)
- Elasticsearch 索引模板
- Kibana 端点
- Kibana 仪表板
- 处理器
- 定义处理器
- add_cloud_metadata
- add_cloudfoundry_metadata
- add_docker_metadata
- add_fields
- add_host_metadata
- add_id
- add_kubernetes_metadata
- add_labels
- add_locale
- add_network_direction
- add_nomad_metadata
- add_observer_metadata
- add_process_metadata
- add_tags
- append
- cache
- community_id
- convert
- copy_fields
- decode_base64_field
- decode_cef
- decode_csv_fields
- decode_duration
- decode_json_fields
- decode_xml
- decode_xml_wineventlog
- decompress_gzip_field
- detect_mime_type
- dissect
- dns
- drop_event
- drop_fields
- extract_array
- fingerprint
- include_fields
- move_fields
- parse_aws_vpc_flow_log
- rate_limit
- registered_domain
- rename
- replace
- script
- syslog
- timestamp
- translate_ldap_attribute
- translate_sid
- truncate_fields
- urldecode
- 自动发现
- 内部队列
- 日志记录
- HTTP 端点
- 正则表达式支持
- 检测
- 功能标志
- filebeat.reference.yml
- 操作指南
- 模块
- 模块概述
- ActiveMQ 模块
- Apache 模块
- Auditd 模块
- AWS 模块
- AWS Fargate 模块
- Azure 模块
- CEF 模块
- Check Point 模块
- Cisco 模块
- CoreDNS 模块
- CrowdStrike 模块
- Cyberark PAS 模块
- Elasticsearch 模块
- Envoyproxy 模块
- Fortinet 模块
- Google Cloud 模块
- Google Workspace 模块
- HAproxy 模块
- IBM MQ 模块
- Icinga 模块
- IIS 模块
- Iptables 模块
- Juniper 模块
- Kafka 模块
- Kibana 模块
- Logstash 模块
- Microsoft 模块
- MISP 模块
- MongoDB 模块
- MSSQL 模块
- MySQL 模块
- MySQL Enterprise 模块
- NATS 模块
- NetFlow 模块
- Nginx 模块
- Office 365 模块
- Okta 模块
- Oracle 模块
- Osquery 模块
- Palo Alto Networks 模块
- pensando 模块
- PostgreSQL 模块
- RabbitMQ 模块
- Redis 模块
- Salesforce 模块
- Santa 模块
- Snyk 模块
- Sophos 模块
- Suricata 模块
- System 模块
- Threat Intel 模块
- Traefik 模块
- Zeek (Bro) 模块
- ZooKeeper 模块
- Zoom 模块
- 导出的字段
- ActiveMQ 字段
- Apache 字段
- Auditd 字段
- AWS 字段
- AWS CloudWatch 字段
- AWS Fargate 字段
- Azure 字段
- Beat 字段
- 解码 CEF 处理器字段
- CEF 字段
- Checkpoint 字段
- Cisco 字段
- 云提供商元数据字段
- Coredns 字段
- Crowdstrike 字段
- CyberArk PAS 字段
- Docker 字段
- ECS 字段
- Elasticsearch 字段
- Envoyproxy 字段
- Fortinet 字段
- Google Cloud Platform (GCP) 字段
- google_workspace 字段
- HAProxy 字段
- 主机字段
- ibmmq 字段
- Icinga 字段
- IIS 字段
- iptables 字段
- Jolokia Discovery 自动发现提供程序字段
- Juniper JUNOS 字段
- Kafka 字段
- kibana 字段
- Kubernetes 字段
- 日志文件内容字段
- logstash 字段
- Lumberjack 字段
- Microsoft 字段
- MISP 字段
- mongodb 字段
- mssql 字段
- MySQL 字段
- MySQL Enterprise 字段
- NATS 字段
- NetFlow 字段
- Nginx 字段
- Office 365 字段
- Okta 字段
- Oracle 字段
- Osquery 字段
- panw 字段
- Pensando 字段
- PostgreSQL 字段
- 进程字段
- RabbitMQ 字段
- Redis 字段
- s3 字段
- Salesforce 字段
- Google Santa 字段
- Snyk 字段
- sophos 字段
- Suricata 字段
- System 字段
- threatintel 字段
- Traefik 字段
- Windows ETW 字段
- Zeek 字段
- ZooKeeper 字段
- Zoom 字段
- 监控
- 安全
- 故障排除
- 获取帮助
- 调试
- 了解记录的指标
- 常见问题
- 在使用 Kubernetes 元数据时提取容器 ID 时出错
- 无法从网络卷读取日志文件
- Filebeat 未从文件中收集行
- 打开的文件句柄过多
- 注册表文件太大
- Inode 重用导致 Filebeat 跳过行
- 日志轮换导致事件丢失或重复
- 打开的文件句柄导致 Windows 文件轮换出现问题
- Filebeat 占用过多 CPU
- Kibana 中的仪表板错误地分解数据字段
- 字段未在 Kibana 可视化中编制索引或可用
- Filebeat 未传输文件的最后一行
- Filebeat 长时间保持已删除文件的打开文件句柄
- Filebeat 使用过多带宽
- 加载配置文件时出错
- 发现意外或未知字符
- Logstash 连接不起作用
- 发布到 Logstash 失败,并显示“connection reset by peer”消息
- @metadata 在 Logstash 中丢失
- 不确定是使用 Logstash 还是 Beats
- SSL 客户端无法连接到 Logstash
- 监控 UI 显示的 Beats 比预期的少
- 仪表板无法定位索引模式
- 由于 MADV 设置导致高 RSS 内存使用率
- 为 Beats 做贡献
添加 Nomad 元数据
编辑添加 Nomad 元数据
编辑此功能为技术预览版,可能会在未来的版本中更改或删除。Elastic 将努力解决任何问题,但技术预览版中的功能不受官方 GA 功能的支持 SLA 约束。
add_nomad_metadata
处理器添加包含部署在 Nomad 中的应用程序的相关元数据的字段。
每个事件都使用以下信息进行注释
- 分配名称、标识符和状态。
- 作业名称和类型。
- 部署作业的命名空间。
- 运行分配的代理所在的数据中心和区域。
processors: - add_nomad_metadata: ~
它具有以下设置来配置连接
-
地址
- (可选)用于请求元数据的代理 API 的 URL。默认使用
http://127.0.0.1:4646
。 -
命名空间
- (可选)要监视的命名空间。如果设置,则仅注释此命名空间中分配的事件。
-
区域
- (可选)要监视的区域。如果设置,则仅注释此区域中分配的事件。
-
secret_id
- (可选)与代理 API 连接时使用的 SecretID。这是一个应用于令牌的 ACL 策略示例。
namespace "*" { policy = "read" } node { policy = "read" } agent { policy = "read" }
-
refresh_interval
- (可选)用于更新缓存的元数据的间隔。默认为 30 秒。
-
cleanup_timeout
- (可选)在删除分配后,等待清除其相关资源的时间。如果您希望在删除分配后接收事件(这在收集日志时可能会发生),这将很有用。默认为 60 秒。
您可以决定 Filebeat 是否应注释与本地节点或整个集群中分配相关的事件,方法是使用以下设置配置范围
-
范围
- (可选)要监视的资源范围。它可以是
node
(仅获取单个代理中分配的元数据),也可以是global
(获取任何代理上运行的分配的元数据)。默认为node
。 -
节点
- (可选)当使用
scope: node
时,如果无法自动发现本地节点的名称,请使用node
来指定它。
例如,如果 Filebeat 正在收集集群中所有分配的事件,则可以使用以下配置
processors: - add_nomad_metadata: scope: global
索引器和匹配器
编辑索引器和匹配器用于将事件中的字段与实际元数据相关联。Filebeat 使用此信息来了解要在每个事件中包含哪些元数据。
索引器
编辑索引器使用分配元数据为每个 pod 创建唯一的标识符。
可用的索引器有:allocation_name
:: 通过名称和命名空间(如 <namespace>/<name>
)标识分配。allocation_uuid
:: 通过其唯一标识符标识分配。
匹配器
编辑匹配器用于构建与索引创建的标识符匹配的查找键。
field_format
编辑使用使用包含事件字段的字符串格式创建的键来查找分配元数据。
此匹配器有一个 format
选项来定义字符串格式。此字符串格式可以包含事件中任何字段的占位符。
例如,以下配置使用 allocation_name
索引器通过其名称和命名空间来标识分配元数据,并使用事件中存在的自定义字段作为匹配键
processors: - add_nomad_metadata: ... default_indexers.enabled: false default_matchers.enabled: false indexers: - allocation_name: matchers: - field_format: format: '%{[labels.nomad_namespace]}/%{[fields.nomad_alloc_name]}'
fields
编辑使用某些特定字段的值作为键来查找分配元数据。当定义多个字段时,使用事件中包含的第一个字段。
此匹配器具有 lookup_fields
选项来定义将用于查找的字段的值。
例如,以下配置使用 allocation_uuid
索引器来标识分配,并定义一个匹配器,该匹配器使用可以在其中找到分配 UUID 的一些字段进行查找,它在事件中找到的第一个。
processors: - add_nomad_metadata: ... default_indexers.enabled: false default_matchers.enabled: false indexers: - allocation_uuid: matchers: - fields: lookup_fields: ['host.name', 'fields.nomad_alloc_uuid']
logs_path
编辑使用从存储在 log.file.path
字段中的日志路径提取的标识符来查找分配元数据。
此匹配器有一个可选的 logs_path
选项,其中包含本地代理的日志目录的基本路径。
当在 /var/lib/nomad
下收集日志时,默认配置能够使用分配 UUID 查找元数据。
例如,当从 /var/lib/NomadClient001/alloc/<alloc UUID>/alloc/logs/...
收集日志时,以下配置将使用分配 UUID。
processors: - add_nomad_metadata: ... default_indexers.enabled: false default_matchers.enabled: false indexers: - allocation_uuid: matchers: - logs_path: logs_path: '/var/lib/NomadClient001'