Logstash
编辑Logstash
编辑此集成收集来自 Logstash 实例的日志和指标。
您可以在 Logstash 参考 中找到有关使用 Logstash 集成监控 Logstash 的其他信息:使用 Elastic Agent 监控 Logstash。
兼容性
编辑logstash
包适用于 Logstash 8.5.0 及更高版本
技术预览说明
编辑此 Logstash 包还包括一个 Logstash 数据收集和仪表板的技术预览,它们是 Elastic Agent 原生的。该技术预览包括增强的数据收集和一些仪表板,这些仪表板提供了对正在运行的管道的额外洞察。
请注意,此功能不适用于 Kibana 内的 Stack Monitoring UI,而是作为技术预览版包含。希望继续使用 Stack Monitoring UI 的现有实现应取消选中技术预览选项,并继续使用 Metrics (Stack Monitoring)
。希望使用技术预览的那些用户应取消选中 Metrics (Stack Monitoring)
并选中 Metrics (Technical Preview)
日志
编辑Logstash 包支持纯文本格式和 JSON 格式。此外,可以通过 Logstash 包激活两种类型的日志
-
log
收集并解析 Logstash 写入磁盘的日志。 -
slowlog
解析 logstash slowlog(请确保配置 Logstash slowlog 选项)。
已知问题
编辑当使用 log
数据流解析纯文本日志时,如果多行纯文本日志包含嵌入的 JSON 对象,且该 JSON 对象在新行开始,则文件集可能无法正确解析多行纯文本日志事件。
指标
编辑Logstash 指标相关的数据流适用于 Logstash 7.3.0 及更高版本。
节点统计
编辑示例
node_stats
的示例事件如下
{ "@timestamp": "2023-03-02T15:57:56.968Z", "agent": { "ephemeral_id": "16f2dd63-454b-4699-a8c8-2a748bd044b8", "id": "3cc85092-54dc-4b58-8726-5e9458167f42", "name": "docker-fleet-agent", "type": "metricbeat", "version": "8.5.0" }, "data_stream": { "dataset": "logstash.stack_monitoring.node_stats", "namespace": "ep", "type": "metrics" }, "ecs": { "version": "8.0.0" }, "elastic_agent": { "id": "3cc85092-54dc-4b58-8726-5e9458167f42", "snapshot": false, "version": "8.5.0" }, "event": { "agent_id_status": "verified", "dataset": "logstash.stack_monitoring.node_stats", "duration": 48419400, "ingested": "2023-03-02T15:57:58Z", "module": "logstash" }, "host": { "architecture": "x86_64", "containerized": true, "hostname": "docker-fleet-agent", "id": "66392b0697b84641af8006d87aeb89f1", "ip": [ "192.168.224.7" ], "mac": [ "02-42-C0-A8-E0-07" ], "name": "docker-fleet-agent", "os": { "codename": "focal", "family": "debian", "kernel": "5.10.47-linuxkit", "name": "Ubuntu", "platform": "ubuntu", "type": "linux", "version": "20.04.5 LTS (Focal Fossa)" } }, "logstash": { "cluster": { "id": "0toa26-cTzmqx0WD40-4XQ" }, "elasticsearch": { "cluster": { "id": "0toa26-cTzmqx0WD40-4XQ" } }, "node": { "stats": { "events": { "duration_in_millis": 334, "filtered": 138, "in": 618, "out": 138 }, "jvm": { "gc": { "collectors": { "old": { "collection_count": 0, "collection_time_in_millis": 0 }, "young": { "collection_count": 13, "collection_time_in_millis": 177 } } }, "mem": { "heap_max_in_bytes": 10527703038, "heap_used_in_bytes": 234688352, "heap_used_percent": 2 }, "uptime_in_millis": 21450 }, "logstash": { "ephemeral_id": "17681d23-bd67-4c40-b6b1-63e97b560856", "host": "170bc3698b89", "http_address": "0.0.0.0:9600", "name": "170bc3698b89", "pipeline": { "batch_size": 125, "workers": 10 }, "snapshot": false, "status": "green", "uuid": "a4224a67-aae8-4bce-8660-079d068b2e72", "version": "8.5.0" }, "os": { "cgroup": { "cpu": { "cfs_quota_micros": -1, "control_group": "/", "stat": { "number_of_elapsed_periods": 0, "number_of_times_throttled": 0, "time_throttled_nanos": 0 } }, "cpuacct": { "control_group": "/", "usage_nanos": 55911664431 } }, "cpu": { "load_average": { "15m": 2.28, "1m": 2.85, "5m": 2.62 }, "percent": 0 } }, "pipelines": [ { "ephemeral_id": "453a2361-82d8-4d88-b7a4-063c3293cd4a", "events": { "duration_in_millis": 0, "filtered": 0, "in": 476, "out": 0, "queue_push_duration_in_millis": 59 }, "hash": "d83c53e142e85177df0f039e5b9f4575b858e9cfdd51c2c60b1a9e8d5f9b1aaa", "id": "pipeline-with-persisted-queue", "queue": { "capacity": { "max_queue_size_in_bytes": 1073741824, "max_unread_events": 0, "page_capacity_in_bytes": 67108864, "queue_size_in_bytes": 132880 }, "data": { "free_space_in_bytes": 51709984768, "path": "/usr/share/logstash/data/queue/pipeline-with-persisted-queue", "storage_type": "overlay" }, "events": 0, "events_count": 0, "max_queue_size_in_bytes": 1073741824, "queue_size_in_bytes": 132880, "type": "persisted" }, "reloads": { "failures": 0, "successes": 0 }, "vertices": [ { "events_out": 475, "id": "dfc132c40b9f5dbc970604f191cf87ee04b102b6f4be5a235436973dc7ea6368", "pipeline_ephemeral_id": "453a2361-82d8-4d88-b7a4-063c3293cd4a", "queue_push_duration_in_millis": 59 }, { "duration_in_millis": 0, "events_in": 375, "events_out": 0, "id": "e24d45cc4f3bb9981356480856120ed5f68127abbc3af7f47e7bca32460e5019", "pipeline_ephemeral_id": "453a2361-82d8-4d88-b7a4-063c3293cd4a" }, { "cluster_uuid": "0toa26-cTzmqx0WD40-4XQ", "duration_in_millis": 1, "events_in": 0, "events_out": 0, "id": "9ba6577aa5c41a5ebcaae010b9a0ef44015ae68c624596ed924417d1701abc21", "pipeline_ephemeral_id": "453a2361-82d8-4d88-b7a4-063c3293cd4a" } ] }, { "ephemeral_id": "7114cd7d-8d91-4afc-a986-32487c3edcbe", "events": { "duration_in_millis": 191, "filtered": 91, "in": 95, "out": 91, "queue_push_duration_in_millis": 4 }, "hash": "0542fa70daa36dc3e858ea099f125cc8c9e451ebbfe8ea8867e52f9764da0a35", "id": "pipeline-with-memory-queue", "queue": { "events_count": 0, "max_queue_size_in_bytes": 0, "queue_size_in_bytes": 0, "type": "memory" }, "reloads": { "failures": 0, "successes": 0 }, "vertices": [ { "events_out": 95, "id": "4c5941552cdaa72ebc285557c697a7150c359ee3eacf9b5664c4b1048e26153b", "pipeline_ephemeral_id": "7114cd7d-8d91-4afc-a986-32487c3edcbe", "queue_push_duration_in_millis": 4 }, { "cluster_uuid": "0toa26-cTzmqx0WD40-4XQ", "duration_in_millis": 193, "events_in": 91, "events_out": 91, "id": "635a080aacc8700059852859da284a9cb92cb78a6d7112fbf55e441e51b6658a", "long_counters": [ { "name": "bulk_requests.successes", "value": 12 }, { "name": "bulk_requests.responses.200", "value": 12 }, { "name": "documents.successes", "value": 91 } ], "pipeline_ephemeral_id": "7114cd7d-8d91-4afc-a986-32487c3edcbe" } ] } ], "process": { "cpu": { "percent": 4 }, "max_file_descriptors": 1048576, "open_file_descriptors": 89 }, "queue": { "events_count": 0 }, "reloads": { "failures": 0, "successes": 0 }, "timestamp": "2023-03-02T15:57:57.016Z" } } }, "metricset": { "name": "node_stats", "period": 10000 }, "service": { "address": "http://elastic-package-service_logstash_1:9600/_node/stats", "hostname": "170bc3698b89", "id": "", "name": "logstash", "type": "logstash", "version": "8.5.0" } }
导出的字段
字段 | 描述 | 类型 |
---|---|---|
@timestamp |
事件发生时的日期/时间。 这是从事件中提取的日期/时间,通常表示事件由源生成的时间。如果事件源没有原始时间戳,则此值通常由管道第一次接收到事件时填充。 所有事件的必填字段。 |
date |
data_stream.dataset |
数据流数据集。 |
constant_keyword |
data_stream.namespace |
数据流命名空间。 |
constant_keyword |
data_stream.type |
数据流类型。 |
constant_keyword |
host.hostname |
主机的 hostname。它通常包含主机上 |
keyword |
logstash.node.jvm.version |
版本 |
keyword |
logstash.node.state.pipeline.hash |
keyword |
|
logstash.node.state.pipeline.id |
keyword |
|
logstash.node.stats.events.duration_in_millis |
long |
|
logstash.node.stats.events.filtered |
已过滤事件计数器。 |
long |
logstash.node.stats.events.in |
传入事件计数器。 |
long |
logstash.node.stats.events.out |
传出事件计数器。 |
long |
logstash.node.stats.jvm.mem.heap_max_in_bytes |
long |
|
logstash.node.stats.jvm.mem.heap_used_in_bytes |
long |
|
logstash.node.stats.jvm.uptime_in_millis |
long |
|
logstash.node.stats.logstash.uuid |
keyword |
|
logstash.node.stats.logstash.version |
keyword |
|
logstash.node.stats.os.cgroup.cpu.stat.number_of_elapsed_periods |
long |
|
logstash.node.stats.os.cgroup.cpu.stat.number_of_times_throttled |
long |
|
logstash.node.stats.os.cgroup.cpu.stat.time_throttled_nanos |
long |
|
logstash.node.stats.os.cgroup.cpuacct.usage_nanos |
long |
|
logstash.node.stats.os.cpu.load_average.15m |
long |
|
logstash.node.stats.os.cpu.load_average.1m |
long |
|
logstash.node.stats.os.cpu.load_average.5m |
long |
|
logstash.node.stats.pipelines.events.duration_in_millis |
long |
|
logstash.node.stats.pipelines.events.out |
long |
|
logstash.node.stats.pipelines.hash |
keyword |
|
logstash.node.stats.pipelines.id |
keyword |
|
logstash.node.stats.pipelines.queue.events_count |
long |
|
logstash.node.stats.pipelines.queue.max_queue_size_in_bytes |
long |
|
logstash.node.stats.pipelines.queue.queue_size_in_bytes |
long |
|
logstash.node.stats.pipelines.queue.type |
keyword |
|
logstash.node.stats.pipelines.vertices.duration_in_millis |
long |
|
logstash.node.stats.pipelines.vertices.events_in |
long |
|
logstash.node.stats.pipelines.vertices.events_out |
events_out |
long |
logstash.node.stats.pipelines.vertices.id |
id |
keyword |
logstash.node.stats.pipelines.vertices.pipeline_ephemeral_id |
pipeline_ephemeral_id |
keyword |
logstash.node.stats.pipelines.vertices.queue_push_duration_in_millis |
queue_push_duration_in_millis |
float |
logstash.node.stats.process.cpu.percent |
double |
|
logstash.node.stats.queue.events_count |
long |
|
logstash_stats.pipelines |
nested |
|
process.pid |
进程 ID。 |
long |
service.version |
从中收集数据的服务的版本。这允许仅查看特定服务版本的某个数据集。 |
keyword |
节点
编辑示例
node
的示例事件如下
{ "@timestamp": "2023-03-02T15:57:03.999Z", "agent": { "ephemeral_id": "16f2dd63-454b-4699-a8c8-2a748bd044b8", "id": "3cc85092-54dc-4b58-8726-5e9458167f42", "name": "docker-fleet-agent", "type": "metricbeat", "version": "8.5.0" }, "data_stream": { "dataset": "logstash.stack_monitoring.node", "namespace": "ep", "type": "metrics" }, "ecs": { "version": "8.0.0" }, "elastic_agent": { "id": "3cc85092-54dc-4b58-8726-5e9458167f42", "snapshot": false, "version": "8.5.0" }, "event": { "agent_id_status": "verified", "dataset": "logstash.stack_monitoring.node", "duration": 69490100, "ingested": "2023-03-02T15:57:05Z", "module": "logstash" }, "host": { "architecture": "x86_64", "containerized": true, "hostname": "docker-fleet-agent", "id": "66392b0697b84641af8006d87aeb89f1", "ip": [ "192.168.224.7" ], "mac": [ "02-42-C0-A8-E0-07" ], "name": "docker-fleet-agent", "os": { "codename": "focal", "family": "debian", "kernel": "5.10.47-linuxkit", "name": "Ubuntu", "platform": "ubuntu", "type": "linux", "version": "20.04.5 LTS (Focal Fossa)" } }, "logstash": { "cluster": { "id": "0toa26-cTzmqx0WD40-4XQ" }, "elasticsearch": { "cluster": { "id": "0toa26-cTzmqx0WD40-4XQ" } }, "node": { "host": "45730b5f8c3d", "id": "2e17cd45-ecb8-4358-a420-b867f2e32b7a", "jvm": { "version": "17.0.4" }, "state": { "pipeline": { "batch_size": 125, "ephemeral_id": "472cf082-aa15-41ca-9ed1-62d03afbadd0", "hash": "d83c53e142e85177df0f039e5b9f4575b858e9cfdd51c2c60b1a9e8d5f9b1aaa", "id": "pipeline-with-persisted-queue", "representation": { "graph": { "edges": [ { "from": "dfc132c40b9f5dbc970604f191cf87ee04b102b6f4be5a235436973dc7ea6368", "id": "9ed824e4f189b461c111ae27c17644c3c5f6d7c3c2bb213cbc7cc067cbd68fe6", "to": "__QUEUE__", "type": "plain" }, { "from": "__QUEUE__", "id": "cb33f8fb7611e31a2c1751b74cdedf5b8cdb96ea46b812a2541e2db4f13dca10", "to": "e24d45cc4f3bb9981356480856120ed5f68127abbc3af7f47e7bca32460e5019", "type": "plain" }, { "from": "e24d45cc4f3bb9981356480856120ed5f68127abbc3af7f47e7bca32460e5019", "id": "63ef166c45b87a40f31e0a6def175f10460b6b0ed656e70968eb52b1c454ab16", "to": "9ba6577aa5c41a5ebcaae010b9a0ef44015ae68c624596ed924417d1701abc21", "type": "plain" } ], "vertices": [ { "config_name": "java_generator", "explicit_id": false, "id": "dfc132c40b9f5dbc970604f191cf87ee04b102b6f4be5a235436973dc7ea6368", "meta": { "source": { "column": 3, "id": "/usr/share/logstash/pipeline/persisted-queue.conf", "line": 2, "protocol": "file" } }, "plugin_type": "input", "type": "plugin" }, { "explicit_id": false, "id": "__QUEUE__", "meta": null, "type": "queue" }, { "config_name": "sleep", "explicit_id": false, "id": "e24d45cc4f3bb9981356480856120ed5f68127abbc3af7f47e7bca32460e5019", "meta": { "source": { "column": 3, "id": "/usr/share/logstash/pipeline/persisted-queue.conf", "line": 8, "protocol": "file" } }, "plugin_type": "filter", "type": "plugin" }, { "config_name": "elasticsearch", "explicit_id": false, "id": "9ba6577aa5c41a5ebcaae010b9a0ef44015ae68c624596ed924417d1701abc21", "meta": { "source": { "column": 3, "id": "/usr/share/logstash/pipeline/persisted-queue.conf", "line": 15, "protocol": "file" } }, "plugin_type": "output", "type": "plugin" } ] }, "hash": "d83c53e142e85177df0f039e5b9f4575b858e9cfdd51c2c60b1a9e8d5f9b1aaa", "type": "lir", "version": "0.0.0" }, "workers": 10 } }, "version": "8.5.0" } }, "metricset": { "name": "node", "period": 10000 }, "process": { "pid": 1 }, "service": { "address": "http://elastic-package-service_logstash_1:9600/_node", "hostname": "45730b5f8c3d", "id": "2e17cd45-ecb8-4358-a420-b867f2e32b7a", "name": "logstash", "type": "logstash", "version": "8.5.0" } }
指标(技术预览)
编辑此 Logstash 包还包括一个 Logstash 数据收集和仪表板的技术预览,它们是 Elastic Agent 原生的。该技术预览包括增强的数据收集和一些仪表板,这些仪表板提供了对正在运行的管道的额外洞察。
请注意,此功能不适用于 Kibana 内的 Stack Monitoring UI,而是作为技术预览版包含。希望继续使用 Stack Monitoring UI 的现有实现应取消选中技术预览选项,并继续使用 Metrics (Stack Monitoring)
。希望使用技术预览的那些用户应取消选中 Metrics (Stack Monitoring)
并选中 Metrics (Technical Preview)
字段和示例事件
编辑节点
编辑这是 node
数据集,它驱动“节点”仪表板页面。
导出的字段
字段 | 描述 | 类型 | 指标类型 |
---|---|---|---|
@timestamp |
事件发生时的日期/时间。 这是从事件中提取的日期/时间,通常表示事件由源生成的时间。如果事件源没有原始时间戳,则此值通常由管道第一次接收到事件时填充。 所有事件的必填字段。 |
date |
|
cloud.account.id |
用于在多租户环境中标识不同实体的云帐户或组织 ID。示例:AWS 帐户 ID、Google Cloud ORG ID 或其他唯一标识符。 |
keyword |
|
cloud.availability_zone |
此主机、资源或服务所在的可用区。 |
keyword |
|
cloud.image.id |
云实例的镜像 ID。 |
keyword |
|
cloud.instance.id |
主机机器的实例 ID。 |
keyword |
|
cloud.instance.name |
主机机器的实例名称。 |
keyword |
|
cloud.machine.type |
主机机器的机器类型。 |
keyword |
|
cloud.project.id |
云项目标识符。示例:Google Cloud 项目 ID、Azure 项目 ID。 |
keyword |
|
cloud.provider |
云提供商的名称。示例值包括 aws、azure、gcp 或 digitalocean。 |
keyword |
|
cloud.region |
此主机、资源或服务所在的区域。 |
keyword |
|
cluster_uuid |
别名 |
||
container.id |
唯一容器 ID。 |
keyword |
|
container.image.name |
容器所基于的镜像的名称。 |
keyword |
|
container.labels |
镜像标签。 |
object |
|
container.name |
容器名称。 |
keyword |
|
data_stream.dataset |
该字段可以包含任何对表示数据源有意义的内容。示例包括 |
constant_keyword |
|
data_stream.namespace |
用户定义的命名空间。命名空间对于允许对数据进行分组很有用。许多用户已经以这种方式组织其索引,并且数据流命名方案现在提供了此最佳实践作为默认值。许多用户将使用 |
constant_keyword |
|
data_stream.type |
数据流的总体类型。当前允许的值为“logs”和“metrics”。我们预计在不久的将来还会添加“traces”和“synthetics”。 |
constant_keyword |
|
ecs.version |
此事件符合的 ECS 版本。 |
keyword |
|
error.message |
错误消息。 |
match_only_text |
|
event.dataset |
数据集的名称。如果事件源发布多种类型的日志或事件(例如,访问日志、错误日志),则数据集用于指定事件来自哪个日志或事件。建议但不强制以模块名称开头,后跟一个点,然后是数据集名称。 |
keyword |
|
event.duration |
事件的持续时间,以纳秒为单位。如果知道 event.start 和 event.end,则此值应为结束时间和开始时间之间的差值。 |
long |
|
event.module |
此数据来自的模块的名称。如果您的监控代理支持模块或插件的概念来处理给定来源的事件(例如,Apache 日志),则 |
keyword |
|
host.architecture |
操作系统架构。 |
keyword |
|
host.containerized |
主机是否为容器。 |
boolean |
|
host.domain |
主机所属的域的名称。例如,在 Windows 上,这可能是主机的 Active Directory 域或 NetBIOS 域名。对于 Linux,这可能是主机 LDAP 提供程序的域。 |
keyword |
|
host.hostname |
主机的 hostname。它通常包含主机上 |
keyword |
|
host.id |
唯一的主机 ID。 由于主机名并非总是唯一的,因此请使用在您的环境中具有意义的值。 示例:当前使用的 |
keyword |
|
host.ip |
主机 IP 地址。 |
ip |
|
host.mac |
主机 MAC 地址。建议使用 RFC 7042 中的表示法格式:每个八位字节(即 8 位字节)都由两个 [大写] 十六进制数字表示,给出该八位字节的值作为无符号整数。连续的八位字节由连字符分隔。 |
keyword |
|
host.name |
主机名称。它可以包含 Unix 系统上 |
keyword |
|
host.os.build |
操作系统构建信息。 |
keyword |
|
host.os.codename |
操作系统代号(如果有)。 |
keyword |
|
host.os.family |
操作系统系列(例如 redhat、debian、freebsd、windows)。 |
keyword |
|
host.os.kernel |
操作系统内核版本,以原始字符串形式表示。 |
keyword |
|
host.os.name |
操作系统名称,不包含版本号。 |
keyword |
|
host.os.name.text |
|
match_only_text |
|
host.os.platform |
操作系统平台(例如 centos、ubuntu、windows)。 |
keyword |
|
host.os.version |
操作系统版本,以原始字符串形式表示。 |
keyword |
|
host.type |
主机类型。对于云提供商,这可以是机器类型,例如 |
keyword |
|
input.type |
keyword |
||
logstash.elasticsearch.cluster.id |
keyword |
||
logstash.host.address |
别名 |
||
logstash.host.name |
别名 |
||
logstash.node.stats.events.duration_in_millis |
long |
counter |
|
logstash.node.stats.events.filtered |
已筛选事件计数器 |
long |
counter |
logstash.node.stats.events.in |
传入事件计数器 |
long |
counter |
logstash.node.stats.events.out |
传出事件计数器 |
long |
counter |
logstash.node.stats.events.queue_push_duration_in_millis |
long |
counter |
|
logstash.node.stats.jvm.gc.collectors.old.collection_count |
long |
counter |
|
logstash.node.stats.jvm.gc.collectors.old.collection_time_in_millis |
long |
counter |
|
logstash.node.stats.jvm.gc.collectors.young.collection_count |
long |
counter |
|
logstash.node.stats.jvm.gc.collectors.young.collection_time_in_millis |
long |
counter |
|
logstash.node.stats.jvm.mem.heap_committed_in_bytes |
long |
gauge |
|
logstash.node.stats.jvm.mem.heap_max_in_bytes |
long |
counter |
|
logstash.node.stats.jvm.mem.heap_used_in_bytes |
long |
gauge |
|
logstash.node.stats.jvm.mem.heap_used_percent |
long |
gauge |
|
logstash.node.stats.jvm.mem.non_heap_committed_in_bytes |
long |
gauge |
|
logstash.node.stats.jvm.mem.non_heap_used_in_bytes |
long |
gauge |
|
logstash.node.stats.jvm.threads.count |
当前线程数 |
long |
counter |
logstash.node.stats.jvm.threads.peak_count |
峰值线程数 |
long |
counter |
logstash.node.stats.jvm.uptime_in_millis |
long |
counter |
|
logstash.node.stats.logstash.ephemeral_id |
keyword |
||
logstash.node.stats.logstash.host |
keyword |
||
logstash.node.stats.logstash.http_address |
keyword |
||
logstash.node.stats.logstash.name |
keyword |
||
logstash.node.stats.logstash.pipeline.batch_delay |
long |
gauge |
|
logstash.node.stats.logstash.pipeline.batch_size |
long |
gauge |
|
logstash.node.stats.logstash.pipeline.workers |
long |
gauge |
|
logstash.node.stats.logstash.pipelines |
keyword |
||
logstash.node.stats.logstash.snapshot |
boolean |
||
logstash.node.stats.logstash.status |
keyword |
||
logstash.node.stats.logstash.uuid |
keyword |
||
logstash.node.stats.logstash.version |
keyword |
||
logstash.node.stats.os.cgroup.cpu.cfs_quota_micros |
long |
gauge |
|
logstash.node.stats.os.cgroup.cpu.control_group |
text |
||
logstash.node.stats.os.cgroup.cpu.stat.number_of_elapsed_periods |
long |
gauge |
|
logstash.node.stats.os.cgroup.cpu.stat.number_of_times_throttled |
long |
counter |
|
logstash.node.stats.os.cgroup.cpu.stat.time_throttled_nanos |
long |
counter |
|
logstash.node.stats.os.cgroup.cpuacct.control_group |
text |
||
logstash.node.stats.os.cgroup.cpuacct.usage_nanos |
long |
counter |
|
logstash.node.stats.os.cpu.load_average.15m |
half_float |
gauge |
|
logstash.node.stats.os.cpu.load_average.1m |
half_float |
gauge |
|
logstash.node.stats.os.cpu.load_average.5m |
half_float |
gauge |
|
logstash.node.stats.os.cpu.percent |
double |
gauge |
|
logstash.node.stats.os.cpu.total_in_millis |
long |
counter |
|
logstash.node.stats.pipelines.ephemeral_id |
keyword |
||
logstash.node.stats.pipelines.events.duration_in_millis |
long |
||
logstash.node.stats.pipelines.events.filtered |
long |
||
logstash.node.stats.pipelines.events.in |
long |
||
logstash.node.stats.pipelines.events.out |
long |
||
logstash.node.stats.pipelines.events.queue_push_duration_in_millis |
long |
||
logstash.node.stats.pipelines.hash |
keyword |
||
logstash.node.stats.pipelines.id |
keyword |
||
logstash.node.stats.pipelines.queue.events_count |
long |
||
logstash.node.stats.pipelines.queue.max_queue_size_in_bytes |
long |
||
logstash.node.stats.pipelines.queue.queue_size_in_bytes |
long |
||
logstash.node.stats.pipelines.queue.type |
keyword |
||
logstash.node.stats.pipelines.reloads.failures |
long |
||
logstash.node.stats.pipelines.reloads.successes |
long |
||
logstash.node.stats.process.cpu.load_average.15m |
half_float |
gauge |
|
logstash.node.stats.process.cpu.load_average.1m |
half_float |
gauge |
|
logstash.node.stats.process.cpu.load_average.5m |
half_float |
gauge |
|
logstash.node.stats.process.cpu.percent |
double |
gauge |
|
logstash.node.stats.process.cpu.total_in_millis |
long |
counter |
|
logstash.node.stats.process.max_file_descriptors |
long |
gauge |
|
logstash.node.stats.process.mem.total_virtual_in_bytes |
long |
gauge |
|
logstash.node.stats.process.open_file_descriptors |
long |
gauge |
|
logstash.node.stats.process.peak_open_file_descriptors |
long |
gauge |
|
logstash.node.stats.queue.events_count |
long |
counter |
|
logstash.node.stats.reloads.failures |
long |
counter |
|
logstash.node.stats.reloads.successes |
long |
counter |
|
logstash.node.stats.timestamp |
date |
||
logstash.pipeline.name |
别名 |
||
process.pid |
进程 ID。 |
long |
|
service.address |
收集此服务数据的地址。这应该是一个 URI、网络地址(ipv4:port 或 [ipv6]:port)或资源路径(套接字)。 |
keyword |
|
service.hostname |
服务的主机名 |
keyword |
|
service.id |
正在运行的服务的唯一标识符。如果服务由多个节点组成,则所有节点的 |
keyword |
|
service.name |
从中收集数据的服务名称。服务名称通常由用户给定。这允许在多个主机上运行的分布式服务基于名称关联相关实例。对于 Elasticsearch, |
keyword |
|
service.type |
从中收集数据的服务类型。该类型可用于分组和关联来自一种服务类型的日志和指标。例如:如果从 Elasticsearch 收集日志或指标,则 |
keyword |
|
service.version |
从中收集数据的服务的版本。这允许仅查看特定服务版本的某个数据集。 |
keyword |
示例
以下是 node_cel
的示例事件
{ "logstash": { "node": { "stats": { "jvm": { "mem": { "heap_committed_in_bytes": 264241152, "heap_used_percent": 2, "heap_max_in_bytes": 5184159742, "non_heap_committed_in_bytes": 191889408, "heap_used_in_bytes": 143564464, "non_heap_used_in_bytes": 180940656 }, "threads": { "count": 83, "peak_count": 85 }, "uptime_in_millis": 448206 }, "logstash": { "pipeline": { "batch_delay": 50, "batch_size": 125, "workers": 8 }, "pipelines": [ "standalone-pipeline", "pipeline-with-memory-queue", "pipeline-with-persisted-queue" ], "http_address": "0.0.0.0:9600", "name": "21d61ee7529e", "host": "21d61ee7529e", "ephemeral_id": "fa27552b-e31d-463d-a5db-f470e6c2f0ba", "version": "8.6.0", "uuid": "2566e68f-ea0e-4dd0-8b65-17bc7bd9f685", "snapshot": false, "status": "green" }, "process": { "open_file_descriptors": 94, "mem": { "total_virtual_in_bytes": 11442712576 }, "max_file_descriptors": 1048576, "cpu": { "load_average": { "5m": 1.49, "15m": 1.23, "1m": 0.74 }, "total_in_millis": 130690, "percent": 2 }, "peak_open_file_descriptors": 95 }, "os": { "cpu": { "load_average": { "5m": 1.49, "15m": 1.23, "1m": 0.74 }, "total_in_millis": 130690, "percent": 2 }, "cgroup": {} }, "events": { "filtered": 27752, "in": 28442, "queue_push_duration_in_millis": 597, "duration_in_millis": 3202220, "out": 27752 }, "queue": { "events_count": 0 }, "reloads": { "failures": 0, "successes": 0 } } } }, "input": { "type": "cel" }, "agent": { "name": "MacBook-Pro.local", "id": "b88de78b-7bd7-49ae-99d7-f68ea18070c4", "type": "filebeat", "ephemeral_id": "e24a6e70-8e93-4d18-8535-319e63c81bc8", "version": "8.10.1" }, "@timestamp": "2023-10-04T18:53:48.769Z", "ecs": { "version": "8.0.0" }, "data_stream": { "namespace": "default", "type": "metrics", "dataset": "logstash.node" }, "elastic_agent": { "id": "b88de78b-7bd7-49ae-99d7-f68ea18070c4", "version": "8.10.1", "snapshot": false }, "host": { "hostname": "macbook-pro.local", "os": { "build": "22F82", "kernel": "22.5.0", "name": "macOS", "family": "darwin", "type": "macos", "version": "13.4.1", "platform": "darwin" }, "ip": [ "192.168.1.184" ], "name": "macbook-pro.local", "id": "AA4215F6-994F-5CCE-B6F2-B6AED75AE125", "mac": [ "AC-DE-48-00-11-22" ], "architecture": "x86_64" }, "event": { "agent_id_status": "verified", "ingested": "2023-10-04T18:53:49Z", "dataset": "logstash.node" } }
管道
编辑这是 pipeline
数据集,它驱动“管道”仪表板页面。
导出的字段
字段 | 描述 | 类型 | Unit | 指标类型 |
---|---|---|---|---|
@timestamp |
事件发生时的日期/时间。 这是从事件中提取的日期/时间,通常表示事件由源生成的时间。如果事件源没有原始时间戳,则此值通常由管道第一次接收到事件时填充。 所有事件的必填字段。 |
date |
||
cloud.account.id |
用于在多租户环境中标识不同实体的云帐户或组织 ID。示例:AWS 帐户 ID、Google Cloud ORG ID 或其他唯一标识符。 |
keyword |
||
cloud.availability_zone |
此主机、资源或服务所在的可用区。 |
keyword |
||
cloud.image.id |
云实例的镜像 ID。 |
keyword |
||
cloud.instance.id |
主机机器的实例 ID。 |
keyword |
||
cloud.instance.name |
主机机器的实例名称。 |
keyword |
||
cloud.machine.type |
主机机器的机器类型。 |
keyword |
||
cloud.project.id |
云项目标识符。示例:Google Cloud 项目 ID、Azure 项目 ID。 |
keyword |
||
cloud.provider |
云提供商的名称。示例值包括 aws、azure、gcp 或 digitalocean。 |
keyword |
||
cloud.region |
此主机、资源或服务所在的区域。 |
keyword |
||
cluster_uuid |
别名 |
|||
container.id |
唯一容器 ID。 |
keyword |
||
container.image.name |
容器所基于的镜像的名称。 |
keyword |
||
container.labels |
镜像标签。 |
object |
||
container.name |
容器名称。 |
keyword |
||
data_stream.dataset |
该字段可以包含任何对表示数据源有意义的内容。示例包括 |
constant_keyword |
||
data_stream.namespace |
用户定义的命名空间。命名空间对于允许对数据进行分组很有用。许多用户已经以这种方式组织其索引,并且数据流命名方案现在提供了此最佳实践作为默认值。许多用户将使用 |
constant_keyword |
||
data_stream.type |
数据流的总体类型。当前允许的值为“logs”和“metrics”。我们预计在不久的将来还会添加“traces”和“synthetics”。 |
constant_keyword |
||
ecs.version |
此事件符合的 ECS 版本。 |
keyword |
||
error.message |
错误消息。 |
match_only_text |
||
event.dataset |
数据集的名称。如果事件源发布多种类型的日志或事件(例如,访问日志、错误日志),则数据集用于指定事件来自哪个日志或事件。建议但不强制以模块名称开头,后跟一个点,然后是数据集名称。 |
keyword |
||
event.duration |
事件的持续时间,以纳秒为单位。如果知道 event.start 和 event.end,则此值应为结束时间和开始时间之间的差值。 |
long |
||
event.module |
此数据来自的模块的名称。如果您的监控代理支持模块或插件的概念来处理给定来源的事件(例如,Apache 日志),则 |
keyword |
||
host.architecture |
操作系统架构。 |
keyword |
||
host.containerized |
主机是否为容器。 |
boolean |
||
host.domain |
主机所属的域的名称。例如,在 Windows 上,这可能是主机的 Active Directory 域或 NetBIOS 域名。对于 Linux,这可能是主机 LDAP 提供程序的域。 |
keyword |
||
host.hostname |
主机的 hostname。它通常包含主机上 |
keyword |
||
host.id |
唯一的主机 ID。 由于主机名并非总是唯一的,因此请使用在您的环境中具有意义的值。 示例:当前使用的 |
keyword |
||
host.ip |
主机 IP 地址。 |
ip |
||
host.mac |
主机 MAC 地址。建议使用 RFC 7042 中的表示法格式:每个八位字节(即 8 位字节)都由两个 [大写] 十六进制数字表示,给出该八位字节的值作为无符号整数。连续的八位字节由连字符分隔。 |
keyword |
||
host.name |
主机名称。它可以包含 Unix 系统上 |
keyword |
||
host.os.build |
操作系统构建信息。 |
keyword |
||
host.os.codename |
操作系统代号(如果有)。 |
keyword |
||
host.os.family |
操作系统系列(例如 redhat、debian、freebsd、windows)。 |
keyword |
||
host.os.kernel |
操作系统内核版本,以原始字符串形式表示。 |
keyword |
||
host.os.name |
操作系统名称,不包含版本号。 |
keyword |
||
host.os.name.text |
|
match_only_text |
||
host.os.platform |
操作系统平台(例如 centos、ubuntu、windows)。 |
keyword |
||
host.os.version |
操作系统版本,以原始字符串形式表示。 |
keyword |
||
host.type |
主机类型。对于云提供商,这可以是机器类型,例如 |
keyword |
||
input.type |
keyword |
|||
logstash.host.address |
别名 |
|||
logstash.host.name |
别名 |
|||
logstash.pipeline.elasticsearch.cluster.id |
此 Logstash 管道所连接的 Elasticsearch 集群 |
keyword |
||
logstash.pipeline.host.address |
托管此 Logstash 实例的地址 |
keyword |
||
logstash.pipeline.host.name |
运行 Logstash 的节点的主机名 |
keyword |
||
logstash.pipeline.info.batch_delay |
正在运行的管道的批处理延迟 |
long |
||
logstash.pipeline.info.batch_size |
正在运行的管道的批处理大小 |
long |
||
logstash.pipeline.info.ephemeral_id |
正在运行的管道的临时 ID |
keyword |
||
logstash.pipeline.info.workers |
正在运行的管道的 worker 数量 |
long |
||
logstash.pipeline.name |
Logstash 管道 ID/名称 |
keyword |
||
logstash.pipeline.total.events.filtered |
管道筛选的事件数 |
long |
counter |
|
logstash.pipeline.total.events.in |
管道接收的事件数 |
long |
counter |
|
logstash.pipeline.total.events.out |
管道发出的事件数 |
long |
counter |
|
logstash.pipeline.total.flow.filter_throughput.current |
筛选器吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.filter_throughput.last_1_minute |
筛选器吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.input_throughput.current |
输入吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.input_throughput.last_1_minute |
吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.output_throughput.current |
输出吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.output_throughput.last_1_minute |
输出吞吐量流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_backpressure.current |
队列反压流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_backpressure.last_1_minute |
队列反压流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_persisted_growth_bytes.current |
队列持久增长字节流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_persisted_growth_bytes.last_1_minute |
队列持久增长字节流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_persisted_growth_events.current |
队列持久增长事件流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.queue_persisted_growth_events.last_1_minute |
队列持久增长事件流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.worker_concurrency.current |
worker 利用率流指标的过去 1 分钟值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.worker_concurrency.last_1_minute |
worker 并发流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.worker_utilization.current |
worker 并发流指标的过去 1 分钟值 |
scaled_float |
gauge |
|
logstash.pipeline.total.flow.worker_utilization.last_1_minute |
worker 并发流指标的当前值 |
scaled_float |
gauge |
|
logstash.pipeline.total.queues.current_size.bytes |
PQ 的当前大小 |
long |
byte |
gauge |
logstash.pipeline.total.queues.events |
此管道的 PQ 中的事件数 |
long |
counter |
|
logstash.pipeline.total.queues.max_size.bytes |
PQ 的最大可能大小 |
long |
gauge |
|
logstash.pipeline.total.queues.type |
队列类型 - 持久或内存 |
keyword |
||
logstash.pipeline.total.reloads.failures |
此管道的失败重载次数 |
long |
counter |
|
logstash.pipeline.total.reloads.successes |
此管道的成功重载次数 |
long |
counter |
|
logstash.pipeline.total.time.duration.ms |
通过管道处理事件所花费的时间。 |
long |
ms |
counter |
logstash.pipeline.total.time.queue_push_duration.ms |
将事件推送到此管道的队列所花费的时间。 |
long |
ms |
counter |
process.pid |
进程 ID。 |
long |
||
service.address |
收集此服务数据的地址。这应该是一个 URI、网络地址(ipv4:port 或 [ipv6]:port)或资源路径(套接字)。 |
keyword |
||
service.hostname |
服务的主机名 |
keyword |
||
service.id |
正在运行的服务的唯一标识符。如果服务由多个节点组成,则所有节点的 |
keyword |
||
service.name |
从中收集数据的服务名称。服务名称通常由用户给定。这允许在多个主机上运行的分布式服务基于名称关联相关实例。对于 Elasticsearch, |
keyword |
||
service.type |
从中收集数据的服务类型。该类型可用于分组和关联来自一种服务类型的日志和指标。例如:如果从 Elasticsearch 收集日志或指标,则 |
keyword |
||
service.version |
从中收集数据的服务的版本。这允许仅查看特定服务版本的某个数据集。 |
keyword |
示例
以下是 pipeline
的示例事件
{ "@timestamp": "2023-10-04T18:53:18.708Z", "data_stream": { "dataset": "logstash.pipeline", "namespace": "default", "type": "metrics" }, "ecs": { "version": "8.0.0" }, "event": { "agent_id_status": "verified", "dataset": "logstash.pipeline", "ingested": "2023-10-04T18:53:19Z" }, "host": { "architecture": "x86_64", "hostname": "macbook-pro.local", "id": "AA4215F6-994F-5CCE-B6F2-B6AED75AE125", "ip": [ "192.168.1.184" ], "mac": [ "AC-DE-48-00-11-22" ], "name": "macbook-pro.local", "os": { "build": "22F82", "family": "darwin", "kernel": "22.5.0", "name": "macOS", "platform": "darwin", "version": "13.4.1" } }, "input": { "type": "cel" }, "logstash": { "pipeline": { "host": { "address": "0.0.0.0:9600", "name": "21d61ee7529e" }, "name": "standalone-pipeline", "total": { "events": { "filtered": 2038, "in": 2038, "out": 2038 }, "flow": { "filter_throughput": { "current": 5.02, "last_1_minute": 5.003 }, "input_throughput": { "current": 4.948, "last_1_minute": 5.003 }, "output_throughput": { "current": 5.02, "last_1_minute": 5.003 }, "queue_backpressure": { "current": 0, "last_1_minute": 0 }, "worker_concurrency": { "current": 0.001, "last_1_minute": 0.001 } }, "queues": { "current_size": { "bytes": 0 }, "events": 0, "max_size": { "bytes": 0 }, "type": "memory" }, "reloads": { "failures": 0, "successes": 0 }, "time": { "duration": { "ms": 1363 }, "queue_push_duration": { "ms": 12 } } } } } }
插件
编辑这是 plugin
数据集,它驱动“管道详细信息”仪表板页面。请注意,对于使用大量管道和/或这些管道中的插件的 Logstash 实例,此数据集可能会生成许多文档。对于这些实例,我们建议审查管道收集周期,并将其设置为适当的值。
导出的字段
字段 | 描述 | 类型 | Unit | 指标类型 |
---|---|---|---|---|
@timestamp |
事件发生时的日期/时间。 这是从事件中提取的日期/时间,通常表示事件由源生成的时间。如果事件源没有原始时间戳,则此值通常由管道第一次接收到事件时填充。 所有事件的必填字段。 |
date |
||
cloud.account.id |
用于在多租户环境中标识不同实体的云帐户或组织 ID。示例:AWS 帐户 ID、Google Cloud ORG ID 或其他唯一标识符。 |
keyword |
||
cloud.availability_zone |
此主机、资源或服务所在的可用区。 |
keyword |
||
cloud.image.id |
云实例的镜像 ID。 |
keyword |
||
cloud.instance.id |
主机机器的实例 ID。 |
keyword |
||
cloud.instance.name |
主机机器的实例名称。 |
keyword |
||
cloud.machine.type |
主机机器的机器类型。 |
keyword |
||
cloud.project.id |
云项目标识符。示例:Google Cloud 项目 ID、Azure 项目 ID。 |
keyword |
||
cloud.provider |
云提供商的名称。示例值包括 aws、azure、gcp 或 digitalocean。 |
keyword |
||
cloud.region |
此主机、资源或服务所在的区域。 |
keyword |
||
cluster_uuid |
别名 |
|||
container.id |
唯一容器 ID。 |
keyword |
||
container.image.name |
容器所基于的镜像的名称。 |
keyword |
||
container.labels |
镜像标签。 |
object |
||
container.name |
容器名称。 |
keyword |
||
data_stream.dataset |
该字段可以包含任何对表示数据源有意义的内容。示例包括 |
constant_keyword |
||
data_stream.namespace |
用户定义的命名空间。命名空间对于允许对数据进行分组很有用。许多用户已经以这种方式组织其索引,并且数据流命名方案现在提供了此最佳实践作为默认值。许多用户将使用 |
constant_keyword |
||
data_stream.type |
数据流的总体类型。当前允许的值为“logs”和“metrics”。我们预计在不久的将来还会添加“traces”和“synthetics”。 |
constant_keyword |
||
ecs.version |
此事件符合的 ECS 版本。 |
keyword |
||
error.message |
错误消息。 |
match_only_text |
||
event.dataset |
数据集的名称。如果事件源发布多种类型的日志或事件(例如,访问日志、错误日志),则数据集用于指定事件来自哪个日志或事件。建议但不强制以模块名称开头,后跟一个点,然后是数据集名称。 |
keyword |
||
event.duration |
事件的持续时间,以纳秒为单位。如果知道 event.start 和 event.end,则此值应为结束时间和开始时间之间的差值。 |
long |
||
event.module |
此数据来自的模块的名称。如果您的监控代理支持模块或插件的概念来处理给定来源的事件(例如,Apache 日志),则 |
keyword |
||
host.architecture |
操作系统架构。 |
keyword |
||
host.containerized |
主机是否为容器。 |
boolean |
||
host.domain |
主机所属的域的名称。例如,在 Windows 上,这可能是主机的 Active Directory 域或 NetBIOS 域名。对于 Linux,这可能是主机 LDAP 提供程序的域。 |
keyword |
||
host.hostname |
主机的 hostname。它通常包含主机上 |
keyword |
||
host.id |
唯一的主机 ID。 由于主机名并非总是唯一的,因此请使用在您的环境中具有意义的值。 示例:当前使用的 |
keyword |
||
host.ip |
主机 IP 地址。 |
ip |
||
host.mac |
主机 MAC 地址。建议使用 RFC 7042 中的表示法格式:每个八位字节(即 8 位字节)都由两个 [大写] 十六进制数字表示,给出该八位字节的值作为无符号整数。连续的八位字节由连字符分隔。 |
keyword |
||
host.name |
主机名称。它可以包含 Unix 系统上 |
keyword |
||
host.os.build |
操作系统构建信息。 |
keyword |
||
host.os.codename |
操作系统代号(如果有)。 |
keyword |
||
host.os.family |
操作系统系列(例如 redhat、debian、freebsd、windows)。 |
keyword |
||
host.os.kernel |
操作系统内核版本,以原始字符串形式表示。 |
keyword |
||
host.os.name |
操作系统名称,不包含版本号。 |
keyword |
||
host.os.name.text |
|
match_only_text |
||
host.os.platform |
操作系统平台(例如 centos、ubuntu、windows)。 |
keyword |
||
host.os.version |
操作系统版本,以原始字符串形式表示。 |
keyword |
||
host.type |
主机类型。对于云提供商,这可以是机器类型,例如 |
keyword |
||
input.type |
keyword |
|||
logstash.host.address |
别名 |
|||
logstash.host.name |
别名 |
|||
logstash.pipeline.elasticsearch.cluster.id |
此 Logstash 管道所连接的 Elasticsearch 集群 |
keyword |
||
logstash.pipeline.host.address |
托管此 Logstash 实例的地址 |
keyword |
||
logstash.pipeline.host.name |
运行 Logstash 的节点的主机名 |
keyword |
||
logstash.pipeline.id |
Logstash 管道哈希 |
keyword |
||
logstash.pipeline.name |
Logstash 管道 ID/名称 |
keyword |
||
logstash.pipeline.plugin.codec.decode.duration.ms |
解码事件所花费的时间量 |
long |
ms |
counter |
logstash.pipeline.plugin.codec.decode.in |
进入解码器的事件数 |
long |
counter |
|
logstash.pipeline.plugin.codec.decode.out |
退出解码器的事件数 |
long |
counter |
|
logstash.pipeline.plugin.codec.encode.duration.ms |
编码事件所花费的时间量 |
long |
ms |
counter |
logstash.pipeline.plugin.codec.encode.in |
编码的事件数 |
long |
counter |
|
logstash.pipeline.plugin.codec.id |
编解码器插件的 ID |
keyword |
||
logstash.pipeline.plugin.codec.name |
编解码器插件的名称 |
keyword |
||
logstash.pipeline.plugin.filter.elasticsearch.cluster.id |
此 Logstash 插件所连接的 Elasticsearch 集群 |
keyword |
||
logstash.pipeline.plugin.filter.events.in |
筛选器接收的事件数 |
long |
counter |
|
logstash.pipeline.plugin.filter.events.out |
筛选器发出的事件数 |
long |
counter |
|
logstash.pipeline.plugin.filter.flow.worker_millis_per_event.current |
此插件每个事件花费的时间量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.filter.flow.worker_millis_per_event.last_1_minute |
此插件每个事件花费的时间量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.filter.flow.worker_utilization.current |
此插件的 worker 利用率 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.filter.flow.worker_utilization.last_1_minute |
此插件的 worker 利用率 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.filter.id |
筛选器插件的 ID |
keyword |
||
logstash.pipeline.plugin.filter.metrics.dissect.failures |
剖析失败的次数 |
long |
counter |
|
logstash.pipeline.plugin.filter.metrics.dissect.matches |
剖析匹配的次数 |
long |
counter |
|
logstash.pipeline.plugin.filter.metrics.grok.failures |
Grok 失败的次数 |
long |
counter |
|
logstash.pipeline.plugin.filter.metrics.grok.matches |
Grok 匹配的次数 |
long |
counter |
|
logstash.pipeline.plugin.filter.name |
筛选器插件的名称 |
keyword |
||
logstash.pipeline.plugin.filter.source.column |
keyword |
|||
logstash.pipeline.plugin.filter.source.id |
keyword |
|||
logstash.pipeline.plugin.filter.source.line |
long |
|||
logstash.pipeline.plugin.filter.source.protocol |
keyword |
|||
logstash.pipeline.plugin.filter.time.duration.ms |
在此插件中处理事件所花费的时间量 |
long |
ms |
counter |
logstash.pipeline.plugin.input.elasticsearch.cluster.id |
此 Logstash 插件所连接的 Elasticsearch 集群 |
keyword |
||
logstash.pipeline.plugin.input.events.out |
输入发出的事件数 |
long |
counter |
|
logstash.pipeline.plugin.input.flow.throughput.current |
此输入插件的吞吐量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.input.flow.throughput.last_1_minute |
此输入插件的吞吐量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.input.id |
输入插件的 ID |
keyword |
||
logstash.pipeline.plugin.input.name |
输入插件的名称 |
keyword |
||
logstash.pipeline.plugin.input.source.column |
keyword |
|||
logstash.pipeline.plugin.input.source.id |
keyword |
|||
logstash.pipeline.plugin.input.source.line |
long |
|||
logstash.pipeline.plugin.input.source.protocol |
keyword |
|||
logstash.pipeline.plugin.input.time.queue_push_duration.ms |
将事件推送到队列所花费的时间量 |
long |
ms |
counter |
logstash.pipeline.plugin.output.elasticsearch.cluster.id |
此 Logstash 插件所连接的 Elasticsearch 集群 |
keyword |
||
logstash.pipeline.plugin.output.events.in |
输出接收的事件数 |
long |
counter |
|
logstash.pipeline.plugin.output.events.out |
输出发出的事件数 |
long |
counter |
|
logstash.pipeline.plugin.output.flow.worker_millis_per_event.current |
此插件每个事件花费的时间量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.output.flow.worker_millis_per_event.last_1_minute |
此插件每个事件花费的时间量 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.output.flow.worker_utilization.current |
此插件的 worker 利用率 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.output.flow.worker_utilization.last_1_minute |
此插件的 worker 利用率 |
scaled_float |
gauge |
|
logstash.pipeline.plugin.output.id |
输出插件的 ID |
keyword |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.200 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.201 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.400 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.401 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.403 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.404 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.409 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.413 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.429 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.responses.500 |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.bulk_requests.successes |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.documents.non_retryable_failures |
long |
counter |
||
logstash.pipeline.plugin.output.metrics.elasticsearch.documents.successes |
long |
counter |
||
logstash.pipeline.plugin.output.name |
输出插件的名称 |
keyword |
||
logstash.pipeline.plugin.output.source.column |
keyword |
|||
logstash.pipeline.plugin.output.source.id |
keyword |
|||
logstash.pipeline.plugin.output.source.line |
long |
|||
logstash.pipeline.plugin.output.source.protocol |
keyword |
|||
logstash.pipeline.plugin.output.time.duration.ms |
在此插件中处理事件所花费的时间量 |
long |
ms |
counter |
logstash.pipeline.plugin.type |
插件的类型 |
keyword |
||
process.pid |
进程 ID。 |
long |
||
service.address |
收集此服务数据的地址。这应该是一个 URI、网络地址(ipv4:port 或 [ipv6]:port)或资源路径(套接字)。 |
keyword |
||
service.hostname |
服务的主机名 |
keyword |
||
service.id |
正在运行的服务的唯一标识符。如果服务由多个节点组成,则所有节点的 |
keyword |
||
service.name |
从中收集数据的服务名称。服务名称通常由用户给定。这允许在多个主机上运行的分布式服务基于名称关联相关实例。对于 Elasticsearch, |
keyword |
||
service.type |
从中收集数据的服务类型。该类型可用于分组和关联来自一种服务类型的日志和指标。例如:如果从 Elasticsearch 收集日志或指标,则 |
keyword |
||
service.version |
从中收集数据的服务的版本。这允许仅查看特定服务版本的某个数据集。 |
keyword |
示例
以下是 plugins
的示例事件
{ "@timestamp": "2023-10-24T17:56:40.316Z", "data_stream": { "dataset": "logstash.plugins", "namespace": "default", "type": "metrics" }, "ecs": { "version": "8.0.0" }, "event": { "agent_id_status": "verified", "dataset": "logstash.plugins", "ingested": "2023-10-24T17:56:41Z" }, "host": { "architecture": "x86_64", "hostname": "macbook-pro.local", "id": "AA4215F6-994F-5CCE-B6F2-B6AED75AE125", "ip": [ "192.168.4.26" ], "mac": [ "AC-DE-48-00-11-22" ], "name": "macbook-pro.local", "os": { "build": "22G120", "family": "darwin", "kernel": "22.6.0", "name": "macOS", "platform": "darwin", "version": "13.6" } }, "input": { "type": "cel" }, "logstash": { "pipeline": { "elasticsearch": { "cluster": { "id": "9MOGoKiESvaklNVmxLo3iA" } }, "host": { "address": "127.0.0.1:9602", "name": "logstash9602" }, "id": "b18ff60bcd82055aab2bf5601a2bc170502f80b33ab5938f25fa95ec8b04cd4b", "name": "work", "plugin": { "output": { "elasticsearch": { "cluster": { "id": "9MOGoKiESvaklNVmxLo3iA" } }, "events": { "in": 798, "out": 798 }, "flow": { "worker_millis_per_event": { "current": 54, "last_1_minute": 54 }, "worker_utilization": { "current": 0.023, "last_1_minute": 0.01 } }, "id": "out_to_elasticsearch", "metrics": { "elasticsearch": { "bulk_requests": { "responses": { "200": 798 }, "successes": 798 }, "documents": { "successes": 798 } } }, "name": "elasticsearch", "source": { "column": "3", "id": "/Users/test/ingestdemo/logstash-8.8.2/remap.conf", "line": 132, "protocol": "file" }, "time": { "duration": { "ms": 198060 } } }, "type": "output" } } } }
变更日志
编辑变更日志
版本 | 详细信息 | Kibana 版本 |
---|---|---|
2.4.11 |
错误修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.10 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.9 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.8 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.7 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.6 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.5 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.4 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.3 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.2 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.1 |
Bug 修复 (查看拉取请求) |
8.10.1 或更高版本 |
2.4.0 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.3.6 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.3.5 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.3.4 |
增强 (查看拉取请求) |
8.10.1 或更高版本 |
2.3.3 |
增强 (查看拉取请求) |
8.7.1 或更高版本 |
2.3.2 |
Bug 修复 (查看拉取请求) |
8.5.0 或更高版本 |
2.3.1 |
Bug 修复 (查看拉取请求) |
8.5.0 或更高版本 |
2.3.0 |
增强 (查看拉取请求) |
8.5.0 或更高版本 |
2.3.0-preview1 |
增强 (查看拉取请求) |
— |
2.2.3-preview1 |
Bug 修复 (查看拉取请求) |
— |
2.2.2-preview1 |
Bug 修复 (查看拉取请求) |
— |
2.2.1-preview1 |
增强 (查看拉取请求) |
— |
2.2.0-preview1 |
增强 (查看拉取请求) |
— |
2.1.1-preview1 |
Bug 修复 (查看拉取请求) |
— |
2.1.0-preview1 |
增强 (查看拉取请求) Bug 修复 (查看拉取请求) |
— |
1.1.0 |
Bug 修复 (查看拉取请求) |
— |
1.0.2 |
Bug 修复 (查看拉取请求) |
— |
1.0.1 |
增强 (查看拉取请求) |
— |
1.0.0 |
增强 (查看拉取请求) |
7.15.0 或更高版本 |