- Filebeat 参考其他版本
- Filebeat 概述
- 快速入门:安装和配置
- 设置和运行
- 升级
- Filebeat 的工作原理
- 配置
- 输入
- 模块
- 通用设置
- 项目路径
- 配置文件加载
- 输出
- Kerberos
- SSL
- 索引生命周期管理 (ILM)
- Elasticsearch 索引模板
- Kibana 端点
- Kibana 仪表板
- 处理器
- 定义处理器
- add_cloud_metadata
- add_cloudfoundry_metadata
- add_docker_metadata
- add_fields
- add_host_metadata
- add_id
- add_kubernetes_metadata
- add_labels
- add_locale
- add_network_direction
- add_nomad_metadata
- add_observer_metadata
- add_process_metadata
- add_tags
- append
- cache
- community_id
- convert
- copy_fields
- decode_base64_field
- decode_cef
- decode_csv_fields
- decode_duration
- decode_json_fields
- decode_xml
- decode_xml_wineventlog
- decompress_gzip_field
- detect_mime_type
- dissect
- dns
- drop_event
- drop_fields
- extract_array
- fingerprint
- include_fields
- move_fields
- parse_aws_vpc_flow_log
- rate_limit
- registered_domain
- rename
- replace
- script
- syslog
- timestamp
- translate_ldap_attribute
- translate_sid
- truncate_fields
- urldecode
- 自动发现
- 内部队列
- 日志记录
- HTTP 端点
- 正则表达式支持
- 检测
- 功能标志
- filebeat.reference.yml
- 操作指南
- 模块
- 模块概述
- ActiveMQ 模块
- Apache 模块
- Auditd 模块
- AWS 模块
- AWS Fargate 模块
- Azure 模块
- CEF 模块
- Check Point 模块
- Cisco 模块
- CoreDNS 模块
- CrowdStrike 模块
- Cyberark PAS 模块
- Elasticsearch 模块
- Envoyproxy 模块
- Fortinet 模块
- Google Cloud 模块
- Google Workspace 模块
- HAproxy 模块
- IBM MQ 模块
- Icinga 模块
- IIS 模块
- Iptables 模块
- Juniper 模块
- Kafka 模块
- Kibana 模块
- Logstash 模块
- Microsoft 模块
- MISP 模块
- MongoDB 模块
- MSSQL 模块
- MySQL 模块
- MySQL Enterprise 模块
- NATS 模块
- NetFlow 模块
- Nginx 模块
- Office 365 模块
- Okta 模块
- Oracle 模块
- Osquery 模块
- Palo Alto Networks 模块
- pensando 模块
- PostgreSQL 模块
- RabbitMQ 模块
- Redis 模块
- Salesforce 模块
- Santa 模块
- Snyk 模块
- Sophos 模块
- Suricata 模块
- System 模块
- Threat Intel 模块
- Traefik 模块
- Zeek (Bro) 模块
- ZooKeeper 模块
- Zoom 模块
- 导出的字段
- ActiveMQ 字段
- Apache 字段
- Auditd 字段
- AWS 字段
- AWS CloudWatch 字段
- AWS Fargate 字段
- Azure 字段
- Beat 字段
- 解码 CEF 处理器字段
- CEF 字段
- Checkpoint 字段
- Cisco 字段
- 云提供商元数据字段
- Coredns 字段
- Crowdstrike 字段
- CyberArk PAS 字段
- Docker 字段
- ECS 字段
- Elasticsearch 字段
- Envoyproxy 字段
- Fortinet 字段
- Google Cloud Platform (GCP) 字段
- google_workspace 字段
- HAProxy 字段
- 主机字段
- ibmmq 字段
- Icinga 字段
- IIS 字段
- iptables 字段
- Jolokia Discovery 自动发现提供程序字段
- Juniper JUNOS 字段
- Kafka 字段
- kibana 字段
- Kubernetes 字段
- 日志文件内容字段
- logstash 字段
- Lumberjack 字段
- Microsoft 字段
- MISP 字段
- mongodb 字段
- mssql 字段
- MySQL 字段
- MySQL Enterprise 字段
- NATS 字段
- NetFlow 字段
- Nginx 字段
- Office 365 字段
- Okta 字段
- Oracle 字段
- Osquery 字段
- panw 字段
- Pensando 字段
- PostgreSQL 字段
- 进程字段
- RabbitMQ 字段
- Redis 字段
- s3 字段
- Salesforce 字段
- Google Santa 字段
- Snyk 字段
- sophos 字段
- Suricata 字段
- System 字段
- threatintel 字段
- Traefik 字段
- Windows ETW 字段
- Zeek 字段
- ZooKeeper 字段
- Zoom 字段
- 监控
- 安全
- 故障排除
- 获取帮助
- 调试
- 了解记录的指标
- 常见问题
- 在使用 Kubernetes 元数据时提取容器 ID 时出错
- 无法从网络卷读取日志文件
- Filebeat 未从文件中收集行
- 打开的文件句柄过多
- 注册表文件太大
- Inode 重用导致 Filebeat 跳过行
- 日志轮换导致事件丢失或重复
- 打开的文件句柄导致 Windows 文件轮换出现问题
- Filebeat 占用过多 CPU
- Kibana 中的仪表板错误地分解数据字段
- 字段未在 Kibana 可视化中编制索引或可用
- Filebeat 未传输文件的最后一行
- Filebeat 长时间保持已删除文件的打开文件句柄
- Filebeat 使用过多带宽
- 加载配置文件时出错
- 发现意外或未知字符
- Logstash 连接不起作用
- 发布到 Logstash 失败,并显示“connection reset by peer”消息
- @metadata 在 Logstash 中丢失
- 不确定是使用 Logstash 还是 Beats
- SSL 客户端无法连接到 Logstash
- 监控 UI 显示的 Beats 比预期的少
- 仪表板无法定位索引模式
- 由于 MADV 设置导致高 RSS 内存使用率
- 为 Beats 做贡献
Azure 模块
编辑Azure 模块
编辑azure 模块从 Azure 检索不同类型的日志数据。使用该模块前有一些要求,因为日志实际上将从 Azure 事件中心读取。
- 日志必须首先导出到事件中心 https://docs.microsoft.com/zh-cn/azure/event-hubs/event-hubs-create-kafka-enabled
- 要将活动日志导出到事件中心,用户可以按照此处的步骤操作 https://docs.microsoft.com/zh-cn/azure/azure-monitor/platform/activity-log-export
- 要将审核和登录日志导出到事件中心,用户可以按照此处的步骤操作 https://docs.microsoft.com/zh-cn/azure/active-directory/reports-monitoring/tutorial-azure-monitor-stream-logs-to-event-hub
该模块包含以下文件集
-
activitylogs
- 将检索 Azure 活动日志。Azure 资源管理器资源上的控制平面事件。活动日志提供了对订阅中资源上执行的操作的见解。要了解更多信息,请参阅 Azure 活动日志 文档。
-
platformlogs
- 将检索 Azure 平台日志。平台日志提供了有关 Azure 资源及其所依赖的 Azure 平台的详细诊断和审核信息。要了解更多信息,请参阅 Azure 平台日志 文档。
-
signinlogs
- 将检索 Azure Active Directory 登录日志。登录报告提供了有关托管应用程序的使用情况和用户登录活动的信息。要了解更多信息,请参阅 Azure 登录日志 文档。
-
auditlogs
- 将检索 Azure Active Directory 审核日志。审核日志通过日志提供对 Azure AD 中各种功能所做的所有更改的可追溯性。审核日志的示例包括对 Azure AD 中的任何资源所做的更改,例如添加或删除用户、应用程序、组、角色和策略。要了解更多信息,请参阅 Azure 审核日志 文档。
模块配置
编辑- module: azure activitylogs: enabled: true var: eventhub: "insights-operational-logs" consumer_group: "$Default" connection_string: "" storage_account: "" storage_account_key: "" resource_manager_endpoint: "" platformlogs: enabled: false var: eventhub: "" consumer_group: "$Default" connection_string: "" storage_account: "" storage_account_key: "" resource_manager_endpoint: "" auditlogs: enabled: false var: eventhub: "insights-logs-auditlogs" consumer_group: "$Default" connection_string: "" storage_account: "" storage_account_key: "" resource_manager_endpoint: "" signinlogs: enabled: false var: eventhub: "insights-logs-signinlogs" consumer_group: "$Default" connection_string: "" storage_account: "" storage_account_key: "" resource_manager_endpoint: ""
-
eventhub
-
string 是完全托管的实时数据引入服务。activitylogs 的默认值为
insights-operational-logs
,auditlogs 的默认值为insights-logs-auditlogs
,signinlogs 的默认值为insights-logs-signinlogs
。建议为每种日志类型使用单独的事件中心,因为每种日志类型的字段映射都不同。 -
consumer_group
-
string 通过消费者组启用事件中心的发布/订阅机制。消费者组是整个事件中心的视图(状态、位置或偏移量)。消费者组使多个消费应用程序各自拥有事件流的单独视图,并能够以自己的速度和自己的偏移量独立读取流。默认值:
$Default
-
connection_string
- string 与事件中心通信所需的连接字符串,步骤在此处 https://docs.microsoft.com/zh-cn/azure/event-hubs/event-hubs-get-connection-string。
为了存储/检索/更新事件中心消息的偏移量或状态,需要一个 Blob 存储帐户。这意味着在停止 filebeat azure 模块后,它可以从它停止处理消息的位置重新启动。
-
storage_account
- string 将存储和更新状态/偏移量的存储帐户的名称。
-
storage_account_key
- string 存储帐户密钥,此密钥将用于授权访问您的存储帐户中的数据。
-
resource_manager_endpoint
- string 可选,默认情况下我们使用 Azure 公共环境,要覆盖此设置,用户可以提供特定的资源管理器端点,以便使用不同的 Azure 环境。示例:https://management.chinacloudapi.cn/ 用于 Azure 中国云,https://management.microsoftazure.de/ 用于 Azure 德国云,https://management.azure.com/ 用于 Azure 公共云,https://management.usgovcloudapi.net/ 用于 Azure 美国政府云。用户也可以在混合云模型中使用此功能,在这种模型中,用户可以定义自己的端点。
运行模块时,它会在后台执行一些任务
- 设置日志文件的默认路径(但不用担心,您可以覆盖默认值)
- 确保每个多行日志事件都作为单个事件发送
- 使用 Elasticsearch 摄取管道来解析和处理日志行,将数据塑造成适合在 Kibana 中可视化的结构
阅读快速入门,了解如何配置和运行模块。
仪表板
编辑azure 模块附带几个用于常规云概述、用户活动和警报的预定义仪表板。例如

字段
编辑有关模块中每个字段的描述,请参阅导出的字段部分。
Was this helpful?
Thank you for your feedback.