编解码器插件可以更改事件的数据表示形式。编解码器本质上是流过滤器,可以作为输入或输出的一部分运行。
以下列出了可用的编解码器插件。有关 Elastic 支持的插件列表,请查阅 支持矩阵。
插件 |
描述 |
Github 仓库 |
将序列化后的 Avro 记录读取为 Logstash 事件 |
||
读取 ArcSight 通用事件格式 (CEF)。 |
||
读取 AWS CloudFront 报告 |
||
读取 AWS CloudTrail 日志文件 |
||
使用 UDP 读取来自 |
||
获取 CSV 数据,对其进行解析,然后传递。 |
||
为每个事件向 |
||
读取 EDN 格式数据 |
||
读取换行符分隔的 EDN 格式数据 |
||
将 Elasticsearch 批量格式读取为单独的事件,以及元数据 |
||
读取 |
||
读取 |
||
读取 |
||
将每个处理过的事件呈现为一个点 |
||
编码和解码面向行的文本数据 |
||
处理没有事件之间分隔符的文本数据 |
||
读取 JSON 格式的内容,为 JSON 数组中的每个元素创建一个事件 |
||
读取换行符分隔的 JSON |
||
读取面向行的文本数据 |
||
读取 MessagePack 编码的内容 |
||
将多行消息合并到单个事件中 |
||
读取 Netflow v5 和 Netflow v9 数据 |
||
读取 XML 格式的 Nmap 数据 |
||
读取纯文本,事件之间没有分隔符 |
||
读取 protobuf 消息并转换为 Logstash 事件 |
||
将 Ruby Awesome Print 库应用于 Logstash 事件 |