插件 |
描述 |
Github 仓库 |
app_search |
将事件发送到Elastic App Search解决方案 |
logstash-integration-elastic_enterprise_search |
boundary |
根据 Logstash 事件将注释发送到 Boundary |
logstash-output-boundary |
circonus |
根据 Logstash 事件将注释发送到 Circonus |
logstash-output-circonus |
cloudwatch |
聚合并将指标数据发送到 AWS CloudWatch |
logstash-output-cloudwatch |
csv |
以分隔格式将事件写入磁盘 |
logstash-output-csv |
datadog |
根据 Logstash 事件将事件发送到 DataDogHQ |
logstash-output-datadog |
datadog_metrics |
根据 Logstash 事件将指标发送到 DataDogHQ |
logstash-output-datadog_metrics |
dynatrace |
根据 Logstash 事件将事件发送到 Dynatrace |
logstash-output-dynatrace |
elastic_app_search |
将事件发送到Elastic App Search解决方案 |
logstash-integration-elastic_enterprise_search |
elastic_workplace_search |
将事件发送到Elastic Workplace Search解决方案 |
logstash-integration-elastic_enterprise_search |
elasticsearch |
将日志存储在 Elasticsearch 中 |
logstash-output-elasticsearch |
email |
收到输出时,向指定地址发送电子邮件 |
logstash-output-email |
exec |
为匹配的事件运行命令 |
logstash-output-exec |
file |
将事件写入磁盘上的文件 |
logstash-output-file |
ganglia |
将指标写入 Ganglia 的gmond |
logstash-output-ganglia |
gelf |
为 Graylog2 生成 GELF 格式的输出 |
logstash-output-gelf |
google_bigquery |
将事件写入 Google BigQuery |
logstash-output-google_bigquery |
google_cloud_storage |
将日志事件上传到 Google Cloud Storage |
logstash-output-google_cloud_storage |
google_pubsub |
将日志事件上传到 Google Cloud Pubsub |
logstash-output-google_pubsub |
graphite |
将指标写入 Graphite |
logstash-output-graphite |
graphtastic |
在 Windows 上发送指标数据 |
logstash-output-graphtastic |
http |
将事件发送到通用的 HTTP 或 HTTPS 端点 |
logstash-output-http |
influxdb |
将指标写入 InfluxDB |
logstash-output-influxdb |
irc |
将事件写入 IRC |
logstash-output-irc |
java_stdout |
将事件打印到 shell 的 STDOUT |
核心插件 |
juggernaut |
将消息推送到 Juggernaut websockets 服务器 |
logstash-output-juggernaut |
kafka |
将事件写入 Kafka 主题 |
logstash-integration-kafka |
librato |
根据 Logstash 事件将指标、注释和警报发送到 Librato |
logstash-output-librato |
loggly |
将日志发送到 Loggly |
logstash-output-loggly |
logstash |
将数据发送到另一个 Logstash 实例上的 Logstash 输入 |
logstash-integration-logstash |
lumberjack |
使用lumberjack 协议发送事件 |
logstash-output-lumberjack |
metriccatcher |
将指标写入 MetricCatcher |
logstash-output-metriccatcher |
mongodb |
将事件写入 MongoDB |
logstash-output-mongodb |
nagios |
将被动检查结果发送到 Nagios |
logstash-output-nagios |
nagios_nsca |
使用 NSCA 协议将被动检查结果发送到 Nagios |
logstash-output-nagios_nsca |
opentsdb |
将指标写入 OpenTSDB |
logstash-output-opentsdb |
pagerduty |
根据预先配置的服务和升级策略发送通知 |
logstash-output-pagerduty |
pipe |
将事件通过管道传输到另一个程序的标准输入 |
logstash-output-pipe |
rabbitmq |
将事件推送到 RabbitMQ 交换机 |
logstash-integration-rabbitmq |
redis |
使用RPUSH 命令将事件发送到 Redis 队列 |
logstash-output-redis |
redmine |
使用 Redmine API 创建工单 |
logstash-output-redmine |
riak |
将事件写入 Riak 分布式键/值存储 |
logstash-output-riak |
riemann |
将指标发送到 Riemann |
logstash-output-riemann |
s3 |
将 Logstash 事件发送到 Amazon Simple Storage Service |
logstash-output-s3 |
sink |
丢弃收到的任何事件 |
核心插件 |
sns |
将事件发送到 Amazon 的 Simple Notification Service |
logstash-output-sns |
solr_http |
在 Solr 中存储和索引日志 |
logstash-output-solr_http |
sqs |
将事件推送到 Amazon Web Services Simple Queue Service 队列 |
logstash-output-sqs |
statsd |
使用statsd 网络守护程序发送指标 |
logstash-output-statsd |
stdout |
将事件打印到标准输出 |
logstash-output-stdout |
stomp |
使用 STOMP 协议写入事件 |
logstash-output-stomp |
syslog |
将事件发送到syslog 服务器 |
logstash-output-syslog |
tcp |
通过 TCP 套接字写入事件 |
logstash-output-tcp |
timber |
将事件发送到 Timber.io 日志记录服务 |
logstash-output-timber |
udp |
通过 UDP 发送事件 |
logstash-output-udp |
webhdfs |
使用webhdfs REST API 将 Logstash 事件发送到 HDFS |
logstash-output-webhdfs |
websocket |
将消息发布到 websocket |
logstash-output-websocket |
workplace_search |
将事件发送到Elastic Workplace Search解决方案 |
logstash-integration-elastic_enterprise_search |
xmpp |
通过 XMPP 发布事件 |
logstash-output-xmpp |
zabbix |
将事件发送到 Zabbix 服务器 |
logstash-output-zabbix |