编解码器插件会更改事件的数据表示形式。编解码器本质上是流过滤器,可以作为输入或输出的一部分运行。
以下是可用的编解码器插件。有关 Elastic 支持的插件列表,请参阅支持矩阵。
插件 |
描述 |
Github 仓库 |
将序列化的 Avro 记录读取为 Logstash 事件 |
||
读取 ArcSight 通用事件格式 (CEF)。 |
||
读取 AWS CloudFront 报告 |
||
读取 AWS CloudTrail 日志文件 |
||
使用 UDP 从 |
||
接收 CSV 数据,解析它并传递它。 |
||
为每个事件向 |
||
读取 EDN 格式的数据 |
||
读取换行符分隔的 EDN 格式数据 |
||
将 Elasticsearch 批量格式读取到单独的事件中,以及元数据 |
||
读取 |
||
读取 |
||
读取 |
||
将每个处理过的事件渲染为一个点 |
||
编码和解码面向行的文本数据 |
||
处理事件之间没有分隔符的文本数据 |
||
读取 JSON 格式的内容,在 JSON 数组中为每个元素创建一个事件 |
||
读取换行符分隔的 JSON |
||
读取面向行的文本数据 |
||
读取 MessagePack 编码的内容 |
||
将多行消息合并为一个事件 |
||
读取 Netflow v5 和 Netflow v9 数据 |
||
读取 XML 格式的 Nmap 数据 |
||
读取事件之间没有分隔符的纯文本 |
||
读取 protobuf 消息并转换为 Logstash 事件 |
||
将 Ruby Awesome Print 库应用于 Logstash 事件 |