Google Cloud Storage 输入插件

编辑

Google Cloud Storage 输入插件

编辑
  • 插件版本:v0.15.0
  • 发布日期:2023-08-22
  • 变更日志

其他版本,请参见 版本化插件文档

安装

编辑

对于非默认捆绑的插件,运行 bin/logstash-plugin install logstash-input-google_cloud_storage 即可轻松安装。更多详情,请参见 使用插件

获取帮助

编辑

如有任何关于插件的问题,请在 Discuss 论坛中发帖提问。如发现错误或有功能需求,请在 Github 中提交 issue。Elastic 支持的插件列表,请参考 Elastic 支持矩阵

描述

编辑

从 Google Cloud Storage 存储桶中的文件提取事件。

示例用例

  • 将 Cloud Storage 存储桶中的 Stackdriver 日志 读取到 Elastic 中。
  • 将来自冷存储的 gzip 压缩日志读取到 Elastic 中。
  • 恢复 Elastic 备份数据。
  • 从 Cloud Storage 提取数据,使用 Logstash 进行转换,然后将其加载到 BigQuery 中。

注意:虽然此项目部分由 Google 维护,但这并非 Google 官方产品。

安装说明

尝试安装此插件可能会导致错误

Bundler::VersionConflict: Bundler could not find compatible versions for gem "mimemagic":
  In Gemfile:
    logstash-input-google_cloud_storage (= 0.11.0) was resolved to 0.11.0, which depends on
      mimemagic (>= 0.3.7)

Could not find gem 'mimemagic (>= 0.3.7)', which is required by gem 'logstash-input-google_cloud_storage (= 0.11.0)', in any of the sources or in gems cached in vendor/cache

如果出现此错误,您可以通过手动将 "mimemagic" 依赖项直接安装到 Logstash 的内部 Ruby Gems 缓存中来修复它,该缓存位于 vendor/bundle/jruby/<ruby_version>/gems/。这可以使用 Logstash 安装 bin/ 文件夹内的捆绑 Ruby gem 实例来完成。

要手动将 "mimemagic" gem 安装到 Logstash 中,请使用

bin/ruby -S gem install mimemagic -v '>= 0.3.7'

"mimemagic" gem 还需要 shared-mime-info 包,可以使用 apt-get install shared-mime-info(在 Debian/Ubuntu 上)或 yum install shared-mime-info(在 Red Hat/RockyOS 发行版上)安装。

然后像往常一样安装插件:

bin/logstash-plugin install logstash-input-google_cloud_storage

元数据属性

编辑

该插件公开了一些关于正在读取的对象的元数据属性。您可以在管道中的后续步骤中访问这些属性,以增强数据或执行条件逻辑。

类型 描述

[@metadata][gcs][bucket]

字符串

读取文件的存储桶名称。

[@metadata][gcs][name]

字符串

对象的名称。

[@metadata][gcs][metadata]

对象

对象元数据的映射。

[@metadata][gcs][md5]

字符串

数据的 MD5 哈希值。使用 base64 编码。

[@metadata][gcs][crc32c]

字符串

CRC32c 校验和,如 RFC 4960 中所述。使用大端字节序的 base64 编码。

[@metadata][gcs][generation]

长整型

对象的內容生成。用于对象版本控制

[@metadata][gcs][line]

长整型

事件在文件中的位置。从 1 开始索引。

[@metadata][gcs][line_id]

字符串

描述此行的确定性唯一 ID。这允许您对 Elasticsearch 执行幂等插入。

有关对象元数据的更多信息,请参阅 官方文档

示例配置

编辑

基本配置

编辑

基本配置,每分钟从 my-logs-bucket 读取 JSON 日志。例如,Stackdriver 日志

input {
  google_cloud_storage {
    interval => 60
    bucket_id => "my-logs-bucket"
    json_key_file => "/home/user/key.json"
    file_matches => ".*json"
    codec => "json_lines"
  }
}
output { stdout { codec => rubydebug } }

对 Elasticsearch 执行幂等插入

编辑

如果您的管道可能多次插入相同的文件,您可以使用 line_id 元数据键作为确定性 ID。

ID 格式为:gs://<bucket_id>/<object_id>:<line_num>@<generation>line_num 表示从文件中反序列化的第 n 个事件(从 1 开始)。generation 是 Cloud Storage 为对象生成的唯一 ID。当对象被覆盖时,它会获得一个新的 generation。

input {
  google_cloud_storage {
    bucket_id => "batch-jobs-output"
  }
}

output {
  elasticsearch {
    document_id => "%{[@metadata][gcs][line_id]}"
  }
}

从 Cloud Storage 到 BigQuery

编辑

从 Cloud Storage 提取数据,使用 Logstash 进行转换,然后将其加载到 BigQuery 中。

input {
  google_cloud_storage {
    interval => 60
    bucket_id => "batch-jobs-output"
    file_matches => "purchases.*.csv"
    json_key_file => "/home/user/key.json"
    codec => "plain"
  }
}

filter {
  csv {
    columns => ["transaction", "sku", "price"]
    convert => {
      "transaction" => "integer"
      "price" => "float"
    }
  }
}

output {
  google_bigquery {
    project_id => "my-project"
    dataset => "logs"
    csv_schema => "transaction:INTEGER,sku:INTEGER,price:FLOAT"
    json_key_file => "/path/to/key.json"
    error_directory => "/tmp/bigquery-errors"
    ignore_unknown_values => true
  }
}

Google Cloud Storage 输入配置选项

编辑

此插件支持以下配置选项以及稍后描述的 通用选项

另请参见 通用选项,了解所有输入插件支持的选项列表。

bucket_id

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

包含日志文件的存储桶。

json_key_file

编辑
  • 值类型为 路径
  • 此设置没有默认值。

用于向存储桶验证用户身份的密钥的路径。此服务用户*应该*具有 storage.objects.update 权限,以便它可以在对象上创建元数据,从而防止多次扫描该对象。

如果没有提供密钥,插件将尝试使用 默认应用程序凭据,如果不存在,则回退到未经身份验证的模式。

interval

编辑
  • 值类型为 数字
  • 默认值为:60

在存储桶中查找新文件的秒数间隔。

file_matches

编辑
  • 值类型为 字符串
  • 默认值为:.*\.log(\.gz)?

用于过滤文件的正则表达式模式。只有名称与该模式匹配的文件才会被考虑。默认情况下匹配所有文件。

file_exclude

编辑

任何与该正则表达式匹配的文件都将从处理中排除。默认情况下不排除任何文件。

metadata_key

编辑
  • 值类型为 字符串
  • 默认值为:x-goog-meta-ls-gcs-input

此键将在插件处理对象后设置在对象上。这样,您可以停止插件并避免再次上传文件,或者通过手动设置字段来防止上传文件。

该键是一个标志,如果文件以前在 Logstash 退出前被部分处理过,则会重新发送一些事件。

processed_db_path

编辑
  • 值类型为 路径
  • 默认值为:LOGSTASH_DATA/plugins/inputs/google_cloud_storage/db

如果设置,插件将在本地存储已处理文件的列表。这允许您为插件创建一个没有写入权限的服务帐户。但是,数据不会在多个正在运行的 Logstash 实例之间共享。

delete

编辑
  • 值类型为 布尔值
  • 默认值为:false

在更新日志文件的内容后是否应将其删除?

unpack_gzip

编辑

如果设置为 true,则在编码器解析文件之前,以 .gz 结尾的文件将被解压缩。如果文件具有该后缀但不能作为 gzip 打开(例如,如果它具有错误的魔数),则该文件将被跳过。

通用选项

编辑

所有输入插件都支持这些配置选项

设置 输入类型 必填

add_field

哈希表

codec

codec

enable_metric

布尔值

id

字符串

tags

数组

type

字符串

add_field

编辑

向事件添加字段

codec

编辑
  • 值类型为 编码器
  • 默认值为 "plain"

用于输入数据的编码器。输入编码器是在数据进入输入之前对其进行解码的一种便捷方法,无需在 Logstash 管道中使用单独的过滤器。

enable_metric

编辑

默认情况下,我们会记录所有可以记录的指标,但是您可以禁用特定插件的指标收集功能。

  • 值类型为 字符串
  • 此设置没有默认值。

向插件配置添加唯一的 ID。如果没有指定 ID,Logstash 将生成一个。强烈建议您在配置中设置此 ID。当您有两个或多个相同类型的插件时,这尤其有用,例如,如果您有两个 google_cloud_storage 输入。在这种情况下,添加命名 ID 将有助于在使用监控 API 时监控 Logstash。

input {
  google_cloud_storage {
    id => "my_plugin_id"
  }
}

id 字段中的变量替换仅支持环境变量,不支持使用密钥存储中的值。

tags

编辑
  • 值类型为 数组
  • 此设置没有默认值。

向您的事件添加任意数量的标签。

这可以帮助以后进行处理。

type

编辑
  • 值类型为 字符串
  • 此设置没有默认值。

向此输入处理的所有事件添加 type 字段。

类型主要用于过滤器激活。

类型存储在事件本身中,因此您也可以使用类型在 Kibana 中搜索它。

如果您尝试在已经具有类型的事件上设置类型(例如,当您将事件从发送器发送到索引器时),则新的输入不会覆盖现有类型。即使发送到另一个 Logstash 服务器,在发送器处设置的类型也会一直保留在该事件中。