- Logstash 参考文档其他版本
- Logstash 简介
- Logstash 入门
- Logstash 的工作原理
- 设置和运行 Logstash
- 升级 Logstash
- 创建 Logstash 管道
- 保护您的连接
- 高级 Logstash 配置
- Logstash 到 Logstash 通信
- 管理 Logstash
- 将 Logstash 与 Elastic Integrations 一起使用
- 使用 Logstash 模块
- 使用 Filebeat 模块
- 使用 Winlogbeat 模块
- 队列和数据弹性
- 转换数据
- 部署和扩展 Logstash
- 管理 GeoIP 数据库
- 性能调优
- 使用 Elastic Agent 监控 Logstash
- 监控 Logstash(旧版)
- 使用 API 监控 Logstash
- 使用插件
- 集成插件
- 输入插件
- azure_event_hubs
- beats
- cloudwatch
- couchdb_changes
- dead_letter_queue
- elastic_agent
- elastic_serverless_forwarder
- elasticsearch
- exec
- file
- ganglia
- gelf
- generator
- github
- google_cloud_storage
- google_pubsub
- graphite
- heartbeat
- http
- http_poller
- imap
- irc
- java_generator
- java_stdin
- jdbc
- jms
- jmx
- kafka
- kinesis
- logstash
- log4j
- lumberjack
- meetup
- pipe
- puppet_facter
- rabbitmq
- redis
- relp
- rss
- s3
- s3-sns-sqs
- salesforce
- snmp
- snmptrap
- sqlite
- sqs
- stdin
- stomp
- syslog
- tcp
- udp
- unix
- varnishlog
- websocket
- wmi
- xmpp
- 输出插件
- boundary
- circonus
- cloudwatch
- csv
- datadog
- datadog_metrics
- dynatrace
- elastic_app_search
- elastic_workplace_search
- elasticsearch
- exec
- file
- ganglia
- gelf
- google_bigquery
- google_cloud_storage
- google_pubsub
- graphite
- graphtastic
- http
- influxdb
- irc
- java_stdout
- juggernaut
- kafka
- librato
- logstash
- loggly
- lumberjack
- metriccatcher
- mongodb
- nagios
- nagios_nsca
- opentsdb
- pagerduty
- pipe
- rabbitmq
- redis
- redmine
- riak
- riemann
- s3
- sink
- sns
- solr_http
- sqs
- statsd
- stdout
- stomp
- syslog
- tcp
- timber
- udp
- webhdfs
- websocket
- xmpp
- zabbix
- 过滤器插件
- age
- aggregate
- alter
- bytes
- cidr
- cipher
- clone
- csv
- date
- de_dot
- dissect
- dns
- drop
- elapsed
- elastic_integration
- elasticsearch
- environment
- extractnumbers
- fingerprint
- geoip
- grok
- http
- i18n
- java_uuid
- jdbc_static
- jdbc_streaming
- json
- json_encode
- kv
- memcached
- metricize
- metrics
- mutate
- prune
- range
- ruby
- sleep
- split
- syslog_pri
- threats_classifier
- throttle
- tld
- translate
- truncate
- urldecode
- useragent
- uuid
- wurfl_device_detection
- xml
- 编解码器插件
- 技巧和最佳实践
- 故障排除
- 为 Logstash 做贡献
- 贡献 Java 插件
- 重大变更
- 发行说明
- Logstash 8.17.0 发行说明
- Logstash 8.16.1 发行说明
- Logstash 8.16.0 发行说明
- Logstash 8.15.4 发行说明
- Logstash 8.15.3 发行说明
- Logstash 8.15.2 发行说明
- Logstash 8.15.1 发行说明
- Logstash 8.15.0 发行说明
- Logstash 8.14.3 发行说明
- Logstash 8.14.2 发行说明
- Logstash 8.14.1 发行说明
- Logstash 8.14.0 发行说明
- Logstash 8.13.4 发行说明
- Logstash 8.13.3 发行说明
- Logstash 8.13.2 发行说明
- Logstash 8.13.1 发行说明
- Logstash 8.13.0 发行说明
- Logstash 8.12.2 发行说明
- Logstash 8.12.1 发行说明
- Logstash 8.12.0 发行说明
- Logstash 8.11.4 发行说明
- Logstash 8.11.3 发行说明
- Logstash 8.11.2 发行说明
- Logstash 8.11.1 发行说明
- Logstash 8.11.0 发行说明
- Logstash 8.10.4 发行说明
- Logstash 8.10.3 发行说明
- Logstash 8.10.2 发行说明
- Logstash 8.10.1 发行说明
- Logstash 8.10.0 发行说明
- Logstash 8.9.2 发行说明
- Logstash 8.9.1 发行说明
- Logstash 8.9.0 发行说明
- Logstash 8.8.2 发行说明
- Logstash 8.8.1 发行说明
- Logstash 8.8.0 发行说明
- Logstash 8.7.1 发行说明
- Logstash 8.7.0 发行说明
- Logstash 8.6.2 发行说明
- Logstash 8.6.1 发行说明
- Logstash 8.6.0 发行说明
- Logstash 8.5.3 发行说明
- Logstash 8.5.2 发行说明
- Logstash 8.5.1 发行说明
- Logstash 8.5.0 发行说明
- Logstash 8.4.2 发行说明
- Logstash 8.4.1 发行说明
- Logstash 8.4.0 发行说明
- Logstash 8.3.3 发行说明
- Logstash 8.3.2 发行说明
- Logstash 8.3.1 发行说明
- Logstash 8.3.0 发行说明
- Logstash 8.2.3 发行说明
- Logstash 8.2.2 发行说明
- Logstash 8.2.1 发行说明
- Logstash 8.2.0 发行说明
- Logstash 8.1.3 发行说明
- Logstash 8.1.2 发行说明
- Logstash 8.1.1 发行说明
- Logstash 8.1.0 发行说明
- Logstash 8.0.1 发行说明
- Logstash 8.0.0 发行说明
- Logstash 8.0.0-rc2 发行说明
- Logstash 8.0.0-rc1 发行说明
- Logstash 8.0.0-beta1 发行说明
- Logstash 8.0.0-alpha2 发行说明
- Logstash 8.0.0-alpha1 发行说明
输出插件将事件数据发送到特定的目标。输出是事件管道中的最后阶段。
以下是可用的输出插件。有关 Elastic 支持的插件列表,请参阅支持矩阵。
插件 |
描述 |
Github 仓库 |
将事件发送到 Elastic App Search 解决方案 |
||
基于 Logstash 事件向 Boundary 发送注解 |
||
基于 Logstash 事件向 Circonus 发送注解 |
||
聚合并将指标数据发送到 AWS CloudWatch |
||
以分隔格式将事件写入磁盘 |
||
基于 Logstash 事件向 DataDogHQ 发送事件 |
||
基于 Logstash 事件向 DataDogHQ 发送指标 |
||
基于 Logstash 事件向 Dynatrace 发送事件 |
||
将事件发送到 Elastic App Search 解决方案 |
||
将事件发送到 Elastic Workplace Search 解决方案 |
||
将日志存储在 Elasticsearch 中 |
||
当收到输出时,向指定地址发送电子邮件 |
||
为匹配的事件运行命令 |
||
将事件写入磁盘上的文件 |
||
将指标写入 Ganglia 的 |
||
为 Graylog2 生成 GELF 格式的输出 |
||
将事件写入 Google BigQuery |
||
将日志事件上传到 Google Cloud Storage |
||
将日志事件上传到 Google Cloud Pubsub |
||
将指标写入 Graphite |
||
在 Windows 上发送指标数据 |
||
将事件发送到通用的 HTTP 或 HTTPS 端点 |
||
将指标写入 InfluxDB |
||
将事件写入 IRC |
||
将事件打印到 shell 的 STDOUT |
||
将消息推送到 Juggernaut websockets 服务器 |
||
将事件写入 Kafka 主题 |
||
基于 Logstash 事件向 Librato 发送指标、注解和警报 |
||
将日志发送到 Loggly |
||
将数据发送到另一个 Logstash 实例上的 Logstash 输入 |
||
使用 |
||
将指标写入 MetricCatcher |
||
将事件写入 MongoDB |
||
将被动检查结果发送到 Nagios |
||
使用 NSCA 协议将被动检查结果发送到 Nagios |
||
将指标写入 OpenTSDB |
||
基于预配置的服务和升级策略发送通知 |
||
将事件通过管道传递到另一个程序的标准输入 |
||
将事件推送到 RabbitMQ 交换机 |
||
使用 |
||
使用 Redmine API 创建工单 |
||
将事件写入 Riak 分布式键/值存储 |
||
将指标发送到 Riemann |
||
将 Logstash 事件发送到 Amazon Simple Storage Service |
||
丢弃任何收到的事件 |
||
将事件发送到 Amazon 的 Simple Notification Service |
||
在 Solr 中存储和索引日志 |
||
将事件推送到 Amazon Web Services Simple Queue Service 队列 |
||
使用 |
||
将事件打印到标准输出 |
||
使用 STOMP 协议写入事件 |
||
将事件发送到 |
||
通过 TCP 套接字写入事件 |
||
将事件发送到 Timber.io 日志服务 |
||
通过 UDP 发送事件 |
||
使用 |
||
将消息发布到 websocket |
||
将事件发送到 Elastic Workplace Search 解决方案 |
||
通过 XMPP 发布事件 |
||
将事件发送到 Zabbix 服务器 |