- Logstash 参考文档其他版本
- Logstash 简介
- Logstash 入门
- Logstash 的工作原理
- 设置和运行 Logstash
- 升级 Logstash
- 创建 Logstash 管道
- 保护您的连接
- 高级 Logstash 配置
- Logstash 到 Logstash 通信
- 管理 Logstash
- 将 Logstash 与 Elastic Integrations 一起使用
- 使用 Logstash 模块
- 使用 Filebeat 模块
- 使用 Winlogbeat 模块
- 队列和数据弹性
- 转换数据
- 部署和扩展 Logstash
- 管理 GeoIP 数据库
- 性能调优
- 使用 Elastic Agent 监控 Logstash
- 监控 Logstash(旧版)
- 使用 API 监控 Logstash
- 使用插件
- 集成插件
- 输入插件
- azure_event_hubs
- beats
- cloudwatch
- couchdb_changes
- dead_letter_queue
- elastic_agent
- elastic_serverless_forwarder
- elasticsearch
- exec
- file
- ganglia
- gelf
- generator
- github
- google_cloud_storage
- google_pubsub
- graphite
- heartbeat
- http
- http_poller
- imap
- irc
- java_generator
- java_stdin
- jdbc
- jms
- jmx
- kafka
- kinesis
- logstash
- log4j
- lumberjack
- meetup
- pipe
- puppet_facter
- rabbitmq
- redis
- relp
- rss
- s3
- s3-sns-sqs
- salesforce
- snmp
- snmptrap
- sqlite
- sqs
- stdin
- stomp
- syslog
- tcp
- udp
- unix
- varnishlog
- websocket
- wmi
- xmpp
- 输出插件
- boundary
- circonus
- cloudwatch
- csv
- datadog
- datadog_metrics
- dynatrace
- elastic_app_search
- elastic_workplace_search
- elasticsearch
- exec
- file
- ganglia
- gelf
- google_bigquery
- google_cloud_storage
- google_pubsub
- graphite
- graphtastic
- http
- influxdb
- irc
- java_stdout
- juggernaut
- kafka
- librato
- logstash
- loggly
- lumberjack
- metriccatcher
- mongodb
- nagios
- nagios_nsca
- opentsdb
- pagerduty
- pipe
- rabbitmq
- redis
- redmine
- riak
- riemann
- s3
- sink
- sns
- solr_http
- sqs
- statsd
- stdout
- stomp
- syslog
- tcp
- timber
- udp
- webhdfs
- websocket
- xmpp
- zabbix
- 过滤器插件
- age
- aggregate
- alter
- bytes
- cidr
- cipher
- clone
- csv
- date
- de_dot
- dissect
- dns
- drop
- elapsed
- elastic_integration
- elasticsearch
- environment
- extractnumbers
- fingerprint
- geoip
- grok
- http
- i18n
- java_uuid
- jdbc_static
- jdbc_streaming
- json
- json_encode
- kv
- memcached
- metricize
- metrics
- mutate
- prune
- range
- ruby
- sleep
- split
- syslog_pri
- threats_classifier
- throttle
- tld
- translate
- truncate
- urldecode
- useragent
- uuid
- wurfl_device_detection
- xml
- 编解码器插件
- 技巧和最佳实践
- 故障排除
- 为 Logstash 做贡献
- 贡献 Java 插件
- 重大变更
- 发行说明
- Logstash 8.17.0 发行说明
- Logstash 8.16.1 发行说明
- Logstash 8.16.0 发行说明
- Logstash 8.15.4 发行说明
- Logstash 8.15.3 发行说明
- Logstash 8.15.2 发行说明
- Logstash 8.15.1 发行说明
- Logstash 8.15.0 发行说明
- Logstash 8.14.3 发行说明
- Logstash 8.14.2 发行说明
- Logstash 8.14.1 发行说明
- Logstash 8.14.0 发行说明
- Logstash 8.13.4 发行说明
- Logstash 8.13.3 发行说明
- Logstash 8.13.2 发行说明
- Logstash 8.13.1 发行说明
- Logstash 8.13.0 发行说明
- Logstash 8.12.2 发行说明
- Logstash 8.12.1 发行说明
- Logstash 8.12.0 发行说明
- Logstash 8.11.4 发行说明
- Logstash 8.11.3 发行说明
- Logstash 8.11.2 发行说明
- Logstash 8.11.1 发行说明
- Logstash 8.11.0 发行说明
- Logstash 8.10.4 发行说明
- Logstash 8.10.3 发行说明
- Logstash 8.10.2 发行说明
- Logstash 8.10.1 发行说明
- Logstash 8.10.0 发行说明
- Logstash 8.9.2 发行说明
- Logstash 8.9.1 发行说明
- Logstash 8.9.0 发行说明
- Logstash 8.8.2 发行说明
- Logstash 8.8.1 发行说明
- Logstash 8.8.0 发行说明
- Logstash 8.7.1 发行说明
- Logstash 8.7.0 发行说明
- Logstash 8.6.2 发行说明
- Logstash 8.6.1 发行说明
- Logstash 8.6.0 发行说明
- Logstash 8.5.3 发行说明
- Logstash 8.5.2 发行说明
- Logstash 8.5.1 发行说明
- Logstash 8.5.0 发行说明
- Logstash 8.4.2 发行说明
- Logstash 8.4.1 发行说明
- Logstash 8.4.0 发行说明
- Logstash 8.3.3 发行说明
- Logstash 8.3.2 发行说明
- Logstash 8.3.1 发行说明
- Logstash 8.3.0 发行说明
- Logstash 8.2.3 发行说明
- Logstash 8.2.2 发行说明
- Logstash 8.2.1 发行说明
- Logstash 8.2.0 发行说明
- Logstash 8.1.3 发行说明
- Logstash 8.1.2 发行说明
- Logstash 8.1.1 发行说明
- Logstash 8.1.0 发行说明
- Logstash 8.0.1 发行说明
- Logstash 8.0.0 发行说明
- Logstash 8.0.0-rc2 发行说明
- Logstash 8.0.0-rc1 发行说明
- Logstash 8.0.0-beta1 发行说明
- Logstash 8.0.0-alpha2 发行说明
- Logstash 8.0.0-alpha1 发行说明
指标过滤器插件
编辑指标过滤器插件
编辑- 插件版本: v4.0.7
- 发布日期: 2021-01-20
- 更新日志
对于其他版本,请参阅版本化插件文档。
获取帮助
编辑关于插件的问题,请在Discuss论坛中打开一个主题。对于错误或功能请求,请在Github中打开一个 issue。有关 Elastic 支持的插件列表,请查阅Elastic 支持矩阵。
描述
编辑指标过滤器对于聚合指标很有用。
Elasticsearch 2.0 不再允许使用带点的字段名称。指标过滤器插件的 3.0 版本更改了行为,使用嵌套字段而不是点式表示法,以避免与 Elasticsearch 2.0+ 版本冲突。请注意文档中的更改(使用了下划线和子字段)。
例如,如果你有一个字段 response
,它是一个 http 响应代码,并且你想要计算每种响应的数量,你可以这样做
filter { metrics { meter => [ "http_%{response}" ] add_tag => "metric" } }
默认情况下,指标每 5 秒刷新一次,或者按照 flush_interval
设置进行刷新。指标作为新事件出现在事件流中,并经过后续的任何过滤器以及输出。
通常,你将需要向你的指标添加一个标签,并让输出显式地查找该标签。
刷新的事件将以以下方式包含每个仪表盘和计时器指标
meter
值
编辑对于一个 meter => "thing"
,你将收到以下字段
- "[thing][count]" - 事件总数
- "[thing][rate_1m]" - 1 分钟滑动窗口中的每秒事件速率
- "[thing][rate_5m]" - 5 分钟滑动窗口中的每秒事件速率
- "[thing][rate_15m]" - 15 分钟滑动窗口中的每秒事件速率
timer
值
编辑对于一个 timer => { "thing" => "%{duration}" }
,你将收到以下字段
- "[thing][count]" - 事件总数
- "[thing][rate_1m]" - 1 分钟滑动窗口中的每秒平均值
- "[thing][rate_5m]" - 5 分钟滑动窗口中的每秒平均值
- "[thing][rate_15m]" - 15 分钟滑动窗口中的每秒平均值
- "[thing][min]" - 此指标的最小值
- "[thing][max]" - 此指标的最大值
- "[thing][stddev]" - 此指标的标准差
- "[thing][mean]" - 此指标的平均值
- "[thing][pXX]" - 此指标的第 XX 个百分位数(请参阅
percentiles
)
事件速率窗口的默认长度(1、5 和 15 分钟)可以使用 rates
选项进行配置。
示例:计算事件速率
编辑对于一个简单的示例,让我们跟踪每秒通过 logstash 的事件数量
input { generator { type => "generated" } } filter { if [type] == "generated" { metrics { meter => "events" add_tag => "metric" } } } output { # only emit events with the 'metric' tag if "metric" in [tags] { stdout { codec => line { format => "rate: %{[events][rate_1m]}" } } } }
运行以上代码
% bin/logstash -f example.conf rate: 23721.983566819246 rate: 24811.395722536377 rate: 25875.892745934525 rate: 26836.42375967113
我们看到输出包含我们事件的 1 分钟速率。
在现实世界中,你将把它发送到 graphite 或其他指标存储,就像这样
output { graphite { metrics => [ "events.rate_1m", "%{[events][rate_1m]}" ] } }
指标过滤器配置选项
编辑此插件支持以下配置选项以及稍后描述的通用选项。
设置 | 输入类型 | 必需 |
---|---|---|
否 |
||
否 |
||
否 |
||
否 |
||
否 |
||
否 |
||
否 |
另请参阅通用选项,了解所有过滤器插件支持的选项列表。
通用选项
编辑所有过滤器插件都支持以下配置选项
设置 | 输入类型 | 必需 |
---|---|---|
否 |
||
否 |
||
否 |
||
否 |
||
否 |
||
否 |
||
否 |
add_field
编辑- 值类型为 哈希
- 默认值为
{}
如果此过滤器成功,则向此事件添加任何任意字段。字段名称可以是动态的,并使用 %{field}
包含事件的部分内容。
示例
filter { metrics { add_field => { "foo_%{somefield}" => "Hello world, from %{host}" } } }
# You can also add multiple fields at once: filter { metrics { add_field => { "foo_%{somefield}" => "Hello world, from %{host}" "new_field" => "new_static_value" } } }
如果事件的字段 "somefield" == "hello"
,则此过滤器在成功时将添加字段 foo_hello
(如果存在),其值为上述值,并且 %{host}
部分替换为事件中的该值。第二个示例还将添加一个硬编码字段。
add_tag
编辑- 值类型为 数组
- 默认值为
[]
如果此过滤器成功,则向事件添加任意标签。标签可以是动态的,并使用 %{field}
语法包含事件的部分内容。
示例
filter { metrics { add_tag => [ "foo_%{somefield}" ] } }
# You can also add multiple tags at once: filter { metrics { add_tag => [ "foo_%{somefield}", "taggedy_tag"] } }
如果事件的字段 "somefield" == "hello"
,则此过滤器在成功时将添加一个标签 foo_hello
(第二个示例当然会添加一个 taggedy_tag
标签)。
id
编辑- 值类型为 字符串
- 此设置没有默认值。
向插件配置添加唯一的 ID
。如果未指定 ID,则 Logstash 将生成一个。强烈建议在配置中设置此 ID。当你具有两个或多个相同类型的插件时,这尤其有用,例如,如果你有 2 个指标过滤器。在这种情况下添加命名 ID 将在使用监控 API 时帮助监控 Logstash。
filter { metrics { id => "ABC" } }
id
字段中的变量替换仅支持环境变量,并且不支持使用来自密钥存储的值。
remove_field
编辑- 值类型为 数组
- 默认值为
[]
如果此过滤器成功,则从此事件中删除任意字段。字段名称可以是动态的,并使用 %{field} 包含事件的部分内容。示例
filter { metrics { remove_field => [ "foo_%{somefield}" ] } }
# You can also remove multiple fields at once: filter { metrics { remove_field => [ "foo_%{somefield}", "my_extraneous_field" ] } }
如果事件的字段 "somefield" == "hello"
,则此过滤器在成功时将删除名称为 foo_hello
的字段(如果存在)。第二个示例将删除一个额外的、非动态字段。
remove_tag
编辑- 值类型为 数组
- 默认值为
[]
如果此过滤器成功,则从此事件中删除任意标签。标签可以是动态的,并使用 %{field}
语法包含事件的部分内容。
示例
filter { metrics { remove_tag => [ "foo_%{somefield}" ] } }
# You can also remove multiple tags at once: filter { metrics { remove_tag => [ "foo_%{somefield}", "sad_unwanted_tag"] } }
如果事件的字段 "somefield" == "hello"
,则此过滤器在成功时将删除标签 foo_hello
(如果存在)。第二个示例也将删除一个悲伤的、不需要的标签。
On this page