跳到主要内容
版本: 最新版本-3.5

Delta Lake Catalog

Delta Lake catalog 是一种外部 Catalog,允许您查询 Delta Lake 中的数据而无需导入。

此外,您还可以使用基于 Delta Lake catalog 的 INSERT INTO 直接转换和加载 Delta Lake 中的数据。StarRocks 从 v2.5 版本开始支持 Delta Lake catalog。

为了确保 Delta Lake 集群上的 SQL 工作负载成功,您的 StarRocks 集群必须能够访问 Delta Lake 集群的存储系统和 Metastore。StarRocks 支持以下存储系统和 Metastore

  • 分布式文件系统(HDFS)或对象存储,如 AWS S3、Microsoft Azure Storage、Google GCS 或其他 S3 兼容的存储系统(例如,MinIO)

  • Metastore,如 Hive Metastore 或 AWS Glue

注意

如果您选择 AWS S3 作为存储,则可以使用 HMS 或 AWS Glue 作为 Metastore。如果您选择任何其他存储系统,则只能使用 HMS 作为 Metastore。

使用说明

  • StarRocks 支持的 Delta Lake 文件格式为 Parquet。Parquet 文件支持以下压缩格式:SNAPPY、LZ4、ZSTD、GZIP 和 NO_COMPRESSION。
  • StarRocks 不支持的 Delta Lake 数据类型为 MAP 和 STRUCT。

集成准备

在创建 Delta Lake catalog 之前,请确保您的 StarRocks 集群可以与 Delta Lake 集群的存储系统和 Metastore 集成。

AWS IAM

如果您的 Delta Lake 集群使用 AWS S3 作为存储或 AWS Glue 作为 Metastore,请选择合适的身份验证方法并进行必要的准备,以确保您的 StarRocks 集群可以访问相关的 AWS 云资源。

建议使用以下身份验证方法

  • 实例配置文件
  • Assume Role
  • IAM 用户

在上述三种身份验证方法中,实例配置文件使用最广泛。

有关更多信息,请参见 在 AWS IAM 中进行身份验证的准备工作

HDFS

如果您选择 HDFS 作为存储,请按如下方式配置您的 StarRocks 集群

  • (可选)设置用于访问 HDFS 集群和 Hive Metastore 的用户名。默认情况下,StarRocks 使用 FE 和 BE 或 CN 进程的用户名来访问 HDFS 集群和 Hive Metastore。您还可以通过在每个 FE 的 fe/conf/hadoop_env.sh 文件开头和每个 BE 的 be/conf/hadoop_env.sh 文件开头或每个 CN 的 cn/conf/hadoop_env.sh 文件开头添加 export HADOOP_USER_NAME="<user_name>" 来设置用户名。在这些文件中设置用户名后,重新启动每个 FE 和每个 BE 或 CN 以使参数设置生效。每个 StarRocks 集群只能设置一个用户名。

  • 当您查询 Delta Lake 数据时,StarRocks 集群的 FE 和 BE 或 CN 使用 HDFS 客户端访问 HDFS 集群。在大多数情况下,您无需配置 StarRocks 集群即可实现此目的,并且 StarRocks 使用默认配置启动 HDFS 客户端。仅在以下情况下才需要配置 StarRocks 集群

    • 为您的 HDFS 集群启用了高可用性 (HA):将 HDFS 集群的 hdfs-site.xml 文件添加到每个 FE 的 $FE_HOME/conf 路径,以及每个 BE 的 $BE_HOME/conf 路径或每个 CN 的 $CN_HOME/conf 路径。
    • 为您的 HDFS 集群启用了 View File System (ViewFs):将 HDFS 集群的 core-site.xml 文件添加到每个 FE 的 $FE_HOME/conf 路径,以及每个 BE 的 $BE_HOME/conf 路径或每个 CN 的 $CN_HOME/conf 路径。
    注意

    如果在发送查询时返回指示未知主机的错误,则必须将您的 HDFS 集群节点的 hostname 和 IP 地址之间的映射添加到 /etc/hosts 路径。

Kerberos 身份验证

如果您的 HDFS 集群或 Hive Metastore 启用了 Kerberos 身份验证,请按如下方式配置您的 StarRocks 集群

  • 在每个 FE 和每个 BE 或 CN 上运行 kinit -kt keytab_path principal 命令,以从 Key Distribution Center (KDC) 获取 Ticket Granting Ticket (TGT)。要运行此命令,您必须具有访问 HDFS 集群和 Hive Metastore 的权限。请注意,使用此命令访问 KDC 对时间敏感。因此,您需要使用 cron 定期运行此命令。
  • JAVA_OPTS="-Djava.security.krb5.conf=/etc/krb5.conf" 添加到每个 FE 的 $FE_HOME/conf/fe.conf 文件以及每个 BE 的 $BE_HOME/conf/be.conf 文件或每个 CN 的 $CN_HOME/conf/cn.conf 文件。在本示例中,/etc/krb5.confkrb5.conf 文件的保存路径。您可以根据需要修改路径。

创建 Delta Lake catalog

语法

CREATE EXTERNAL CATALOG <catalog_name>
[COMMENT <comment>]
PROPERTIES
(
"type" = "deltalake",
MetastoreParams,
StorageCredentialParams,
MetadataUpdateParams
)

参数

catalog_name

Delta Lake catalog 的名称。命名约定如下

  • 该名称可以包含字母、数字 (0-9) 和下划线 (_)。它必须以字母开头。
  • 该名称区分大小写,长度不能超过 1023 个字符。

comment

Delta Lake catalog 的描述。此参数是可选的。

type

您的数据源类型。将值设置为 deltalake

MetastoreParams

一组关于 StarRocks 如何与数据源的 Metastore 集成的参数。

Hive Metastore

如果您选择 Hive Metastore 作为数据源的 Metastore,请按如下方式配置 MetastoreParams

"hive.metastore.type" = "hive",
"hive.metastore.uris" = "<hive_metastore_uri>"
注意

在查询 Delta Lake 数据之前,您必须将 Hive Metastore 节点的hostname和IP地址的映射添加到 /etc/hosts 路径。 否则,启动查询时,StarRocks可能无法访问您的 Hive Metastore。

下表描述了您需要在 MetastoreParams 中配置的参数。

参数必需描述
hive.metastore.type您用于 Delta Lake 集群的 Metastore 类型。将值设置为 hive
hive.metastore.uris您的 Hive Metastore 的 URI。格式:thrift://<metastore_IP_address>:<metastore_port>
如果为您的 Hive Metastore 启用了高可用性 (HA),您可以指定多个 Metastore URI,并用逗号 (,) 分隔它们,例如 "thrift://<metastore_IP_address_1>:<metastore_port_1>,thrift://<metastore_IP_address_2>:<metastore_port_2>,thrift://<metastore_IP_address_3>:<metastore_port_3>"
AWS Glue

如果您选择 AWS Glue 作为数据源的 Metastore,这仅在您选择 AWS S3 作为存储时才支持,请执行以下操作之一

  • 要选择基于实例配置文件的身份验证方法,请按如下方式配置 MetastoreParams

    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "true",
    "aws.glue.region" = "<aws_glue_region>"
  • 要选择基于 Assume Role 的身份验证方法,请按如下方式配置 MetastoreParams

    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "true",
    "aws.glue.iam_role_arn" = "<iam_role_arn>",
    "aws.glue.region" = "<aws_glue_region>"
  • 要选择基于 IAM 用户的身份验证方法,请按如下方式配置 MetastoreParams

    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "false",
    "aws.glue.access_key" = "<iam_user_access_key>",
    "aws.glue.secret_key" = "<iam_user_secret_key>",
    "aws.glue.region" = "<aws_s3_region>"

下表描述了您需要在 MetastoreParams 中配置的参数。

参数必需描述
hive.metastore.type您用于 Delta Lake 集群的 Metastore 类型。将值设置为 glue
aws.glue.use_instance_profile指定是否启用基于实例配置文件的身份验证方法和基于 Assume Role 的身份验证方法。有效值:truefalse。默认值:false
aws.glue.iam_role_arn具有对您的 AWS Glue Data Catalog 权限的 IAM 角色的 ARN。如果您使用基于 Assume Role 的身份验证方法访问 AWS Glue,则必须指定此参数。
aws.glue.region您的 AWS Glue Data Catalog 所在的区域。示例:us-west-1
aws.glue.access_key您的 AWS IAM 用户的访问密钥。如果您使用基于 IAM 用户的身份验证方法访问 AWS Glue,则必须指定此参数。
aws.glue.secret_key您的 AWS IAM 用户的密钥。如果您使用基于 IAM 用户的身份验证方法访问 AWS Glue,则必须指定此参数。

有关如何选择访问 AWS Glue 的身份验证方法以及如何在 AWS IAM 控制台中配置访问控制策略的信息,请参见 访问 AWS Glue 的身份验证参数

StorageCredentialParams

一组关于 StarRocks 如何与您的存储系统集成的参数。此参数集是可选的。

如果您使用 HDFS 作为存储,则无需配置 StorageCredentialParams

如果您使用 AWS S3、其他 S3 兼容的存储系统、Microsoft Azure Storage 或 Google GCS 作为存储,则必须配置 StorageCredentialParams

AWS S3

如果您选择 AWS S3 作为 Delta Lake 集群的存储,请执行以下操作之一

  • 要选择基于实例配置文件的身份验证方法,请按如下方式配置 StorageCredentialParams

    "aws.s3.use_instance_profile" = "true",
    "aws.s3.region" = "<aws_s3_region>"
  • 要选择基于假设角色的身份验证方法,请按如下方式配置 StorageCredentialParams

    "aws.s3.use_instance_profile" = "true",
    "aws.s3.iam_role_arn" = "<iam_role_arn>",
    "aws.s3.region" = "<aws_s3_region>"
  • 要选择基于 IAM 用户的身份验证方法,请按如下方式配置 StorageCredentialParams

    "aws.s3.use_instance_profile" = "false",
    "aws.s3.access_key" = "<iam_user_access_key>",
    "aws.s3.secret_key" = "<iam_user_secret_key>",
    "aws.s3.region" = "<aws_s3_region>"

下表描述了需要在 StorageCredentialParams 中配置的参数。

参数必需描述
aws.s3.use_instance_profile指定是否启用基于实例配置文件的身份验证方法和基于 Assume Role 的身份验证方法。有效值:truefalse。默认值:false
aws.s3.iam_role_arn具有对您的 AWS S3 存储桶权限的 IAM 角色的 ARN。如果您使用基于 Assume Role 的身份验证方法访问 AWS S3,则必须指定此参数。
aws.s3.region您的 AWS S3 bucket 所在的区域。示例:us-west-1
aws.s3.access_key您的 IAM 用户的访问密钥。如果您使用基于 IAM 用户的身份验证方法访问 AWS S3,则必须指定此参数。
aws.s3.secret_key您的 IAM 用户的密钥。如果您使用基于 IAM 用户的身份验证方法访问 AWS S3,则必须指定此参数。

有关如何选择访问 AWS S3 的身份验证方法以及如何在 AWS IAM 控制台中配置访问控制策略的信息,请参见 访问 AWS S3 的身份验证参数

S3 兼容的存储系统

从 v2.5 版本开始,Delta Lake catalog 支持与 S3 兼容的存储系统。

如果您选择与 S3 兼容的存储系统(例如 MinIO)作为 Delta Lake 集群的存储,请配置 StorageCredentialParams 如下,以确保成功集成

"aws.s3.enable_ssl" = "false",
"aws.s3.enable_path_style_access" = "true",
"aws.s3.endpoint" = "<s3_endpoint>",
"aws.s3.access_key" = "<iam_user_access_key>",
"aws.s3.secret_key" = "<iam_user_secret_key>"

下表描述了需要在 StorageCredentialParams 中配置的参数。

参数必需描述
aws.s3.enable_ssl指定是否启用 SSL 连接。
有效值:truefalse。默认值:true
aws.s3.enable_path_style_access指定是否启用 path-style 访问。
有效值:truefalse。默认值:false。对于 MinIO,您必须将值设置为 true
Path-style URL 使用以下格式:https://s3.<region_code>.amazonaws.com/<bucket_name>/<key_name>。例如,如果您在美国西部(俄勒冈)区域中创建了一个名为 DOC-EXAMPLE-BUCKET1 的 Bucket,并且您想访问该 Bucket 中的 alice.jpg 对象,则可以使用以下 path-style URL:https://s3.us-west-2.amazonaws.com/DOC-EXAMPLE-BUCKET1/alice.jpg
aws.s3.endpoint用于连接到您的 S3 兼容存储系统而不是 AWS S3 的端点。
aws.s3.access_key您的 IAM 用户的访问密钥。
aws.s3.secret_key您的 IAM 用户的密钥。
Microsoft Azure Storage

从 v3.0 版本开始,Delta Lake catalog 支持 Microsoft Azure Storage。

Azure Blob Storage

如果您选择 Blob Storage 作为 Delta Lake 集群的存储,请执行以下操作之一

  • 要选择共享密钥身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.blob.storage_account" = "<storage_account_name>",
    "azure.blob.shared_key" = "<storage_account_shared_key>"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.blob.storage_account您的 Blob Storage 帐户的用户名。
    azure.blob.shared_key您的 Blob Storage 帐户的共享密钥。
  • 要选择 SAS 令牌身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.blob.storage_account" = "<storage_account_name>",
    "azure.blob.container" = "<container_name>",
    "azure.blob.sas_token" = "<storage_account_SAS_token>"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.blob.storage_account您的 Blob Storage 帐户的用户名。
    azure.blob.container存储数据的 Blob 容器的名称。
    azure.blob.sas_token用于访问 Blob 存储帐户的 SAS 令牌。
Azure Data Lake Storage Gen2

如果您选择 Data Lake Storage Gen2 作为 Delta Lake 集群的存储,请执行以下操作之一

  • 要选择托管标识身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.adls2.oauth2_use_managed_identity" = "true",
    "azure.adls2.oauth2_tenant_id" = "<service_principal_tenant_id>",
    "azure.adls2.oauth2_client_id" = "<service_client_id>"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.adls2.oauth2_use_managed_identity指定是否启用托管标识身份验证方法。将值设置为 true
    azure.adls2.oauth2_tenant_id您要访问其数据的租户的 ID。
    azure.adls2.oauth2_client_id托管标识的客户端(应用程序)ID。
  • 要选择共享密钥身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.adls2.storage_account" = "<storage_account_name>",
    "azure.adls2.shared_key" = "<storage_account_shared_key>"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.adls2.storage_account您的 Data Lake Storage Gen2 存储帐户的用户名。
    azure.adls2.shared_key您的 Data Lake Storage Gen2 存储帐户的共享密钥。
  • 要选择服务主体身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.adls2.oauth2_client_id" = "<service_client_id>",
    "azure.adls2.oauth2_client_secret" = "<service_principal_client_secret>",
    "azure.adls2.oauth2_client_endpoint" = "<service_principal_client_endpoint>"

    下表描述了您需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.adls2.oauth2_client_id服务主体的客户端(应用程序)ID。
    azure.adls2.oauth2_client_secret创建的新客户端(应用程序)密钥的值。
    azure.adls2.oauth2_client_endpoint服务主体或应用程序的 OAuth 2.0 令牌端点 (v1)。
Azure Data Lake Storage Gen1

如果您选择 Data Lake Storage Gen1 作为 Delta Lake 集群的存储,请执行以下操作之一

  • 要选择托管服务标识身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.adls1.use_managed_service_identity" = "true"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.adls1.use_managed_service_identity指定是否启用托管服务标识身份验证方法。将值设置为 true
  • 要选择服务主体身份验证方法,请按如下方式配置 StorageCredentialParams

    "azure.adls1.oauth2_client_id" = "<application_client_id>",
    "azure.adls1.oauth2_credential" = "<application_client_credential>",
    "azure.adls1.oauth2_endpoint" = "<OAuth_2.0_authorization_endpoint_v2>"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数必需描述
    azure.adls1.oauth2_client_id服务主体的客户端(应用程序)ID。
    azure.adls1.oauth2_credential创建的新客户端(应用程序)密钥的值。
    azure.adls1.oauth2_endpoint服务主体或应用程序的 OAuth 2.0 令牌端点 (v1)。
Google GCS

从 v3.0 版本开始,Delta Lake catalog 支持 Google GCS。

如果您选择 Google GCS 作为 Delta Lake 集群的存储,请执行以下操作之一

  • 要选择基于 VM 的身份验证方法,请按如下方式配置 StorageCredentialParams

    "gcp.gcs.use_compute_engine_service_account" = "true"

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数默认值 示例描述
    gcp.gcs.use_compute_engine_service_accountfalsetrue指定是否直接使用绑定到您的 Compute Engine 的服务帐户。
  • 要选择基于服务帐户的身份验证方法,请按如下方式配置 StorageCredentialParams

    "gcp.gcs.service_account_email" = "<google_service_account_email>",
    "gcp.gcs.service_account_private_key_id" = "<google_service_private_key_id>",
    "gcp.gcs.service_account_private_key" = "<google_service_private_key>",

    下表描述了需要在 StorageCredentialParams 中配置的参数。

    参数默认值 示例描述
    gcp.gcs.service_account_email"""user@hello.iam.gserviceaccount.com"在创建服务帐户时生成的 JSON 文件中的电子邮件地址。
    gcp.gcs.service_account_private_key_id"""61d257bd8479547cb3e04f0b9b6b9ca07af3b7ea"在创建服务帐户时生成的 JSON 文件中的私钥 ID。
    gcp.gcs.service_account_private_key"""-----BEGIN PRIVATE KEY----xxxx-----END PRIVATE KEY-----\n"在创建服务帐户时生成的 JSON 文件中的私钥。
  • 要选择基于模拟的身份验证方法,请按如下方式配置 StorageCredentialParams

    • 使 VM 实例模拟服务帐户

      "gcp.gcs.use_compute_engine_service_account" = "true",
      "gcp.gcs.impersonation_service_account" = "<assumed_google_service_account_email>"

      下表描述了需要在 StorageCredentialParams 中配置的参数。

      参数默认值 示例描述
      gcp.gcs.use_compute_engine_service_accountfalsetrue指定是否直接使用绑定到您的 Compute Engine 的服务帐户。
      gcp.gcs.impersonation_service_account"""hello"您要模拟的服务帐户。
    • 使服务帐户(暂时命名为 meta service account)模拟另一个服务帐户(暂时命名为 data service account)

      "gcp.gcs.service_account_email" = "<google_service_account_email>",
      "gcp.gcs.service_account_private_key_id" = "<meta_google_service_account_email>",
      "gcp.gcs.service_account_private_key" = "<meta_google_service_account_email>",
      "gcp.gcs.impersonation_service_account" = "<data_google_service_account_email>"

      下表描述了需要在 StorageCredentialParams 中配置的参数。

      参数默认值 示例描述
      gcp.gcs.service_account_email"""user@hello.iam.gserviceaccount.com"在创建元服务帐户时生成的 JSON 文件中的电子邮件地址。
      gcp.gcs.service_account_private_key_id"""61d257bd8479547cb3e04f0b9b6b9ca07af3b7ea"在创建元服务帐户时生成的 JSON 文件中的私钥 ID。
      gcp.gcs.service_account_private_key"""-----BEGIN PRIVATE KEY----xxxx-----END PRIVATE KEY-----\n"在创建元服务帐户时生成的 JSON 文件中的私钥。
      gcp.gcs.impersonation_service_account"""hello"您要模拟的数据服务帐户。

MetadataUpdateParams

一组关于 StarRocks 如何更新 Delta Lake 的缓存元数据的参数。此参数集是可选的。

从 v3.3.3 版本开始,Delta Lake Catalog 支持 元数据本地缓存和检索。在大多数情况下,您可以忽略 MetadataUpdateParams,无需调整其中的策略参数,因为这些参数的默认值已经为您提供了开箱即用的性能。

但是,如果 Delta Lake 中的数据更新频率很高,您可以调整这些参数以进一步优化自动异步更新的性能。

注意

在大多数情况下,如果您的 Delta Lake 数据以 1 小时或更短的粒度更新,则认为数据更新频率很高。

参数单位默认描述
enable_deltalake_table_cache-true是否在 Delta Lake 的元数据缓存中启用表缓存。
enable_deltalake_json_meta_cache-true是否为 Delta Log JSON 文件启用缓存。
deltalake_json_meta_cache_ttl_sec48 * 60 * 60Delta Log JSON 文件缓存的生存时间 (TTL)。
deltalake_json_meta_cache_memory_usage_ratio-0.1Delta Log JSON 文件缓存占用的 JVM 堆大小的最大比率。
enable_deltalake_checkpoint_meta_cache-true是否为 Delta Log Checkpoint 文件启用缓存。
deltalake_checkpoint_meta_cache_ttl_sec48 * 60 * 60Delta Log Checkpoint 文件缓存的生存时间 (TTL)。
deltalake_checkpoint_meta_cache_memory_usage_ratio-0.1Delta Log Checkpoint 文件缓存占用的 JVM 堆大小的最大比率。

示例

以下示例创建了一个名为 deltalake_catalog_hmsdeltalake_catalog_glue 的 Delta Lake catalog,具体取决于您使用的 Metastore 类型,以查询 Delta Lake 集群中的数据。

HDFS

如果您使用 HDFS 作为存储,请运行如下命令

CREATE EXTERNAL CATALOG deltalake_catalog_hms
PROPERTIES
(
"type" = "deltalake",
"hive.metastore.type" = "hive",
"hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083"
);

AWS S3

如果您选择基于实例配置文件的凭据
  • 如果在您的 Delta Lake 集群中使用 Hive Metastore,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "aws.s3.use_instance_profile" = "true",
    "aws.s3.region" = "us-west-2"
    );
  • 如果您在 Amazon EMR Delta Lake 集群中使用 AWS Glue,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_glue
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "true",
    "aws.glue.region" = "us-west-2",
    "aws.s3.use_instance_profile" = "true",
    "aws.s3.region" = "us-west-2"
    );
如果您选择基于 Assumed Role 的凭据
  • 如果在您的 Delta Lake 集群中使用 Hive Metastore,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "aws.s3.use_instance_profile" = "true",
    "aws.s3.iam_role_arn" = "arn:aws:iam::081976408565:role/test_s3_role",
    "aws.s3.region" = "us-west-2"
    );
  • 如果您在 Amazon EMR Delta Lake 集群中使用 AWS Glue,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_glue
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "true",
    "aws.glue.iam_role_arn" = "arn:aws:iam::081976408565:role/test_glue_role",
    "aws.glue.region" = "us-west-2",
    "aws.s3.use_instance_profile" = "true",
    "aws.s3.iam_role_arn" = "arn:aws:iam::081976408565:role/test_s3_role",
    "aws.s3.region" = "us-west-2"
    );
如果选择基于 IAM 用户的凭据
  • 如果在您的 Delta Lake 集群中使用 Hive Metastore,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "aws.s3.use_instance_profile" = "false",
    "aws.s3.access_key" = "<iam_user_access_key>",
    "aws.s3.secret_key" = "<iam_user_access_key>",
    "aws.s3.region" = "us-west-2"
    );
  • 如果您在 Amazon EMR Delta Lake 集群中使用 AWS Glue,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_glue
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "glue",
    "aws.glue.use_instance_profile" = "false",
    "aws.glue.access_key" = "<iam_user_access_key>",
    "aws.glue.secret_key" = "<iam_user_secret_key>",
    "aws.glue.region" = "us-west-2",
    "aws.s3.use_instance_profile" = "false",
    "aws.s3.access_key" = "<iam_user_access_key>",
    "aws.s3.secret_key" = "<iam_user_secret_key>",
    "aws.s3.region" = "us-west-2"
    );

S3 兼容的存储系统

以 MinIO 为例。运行如下命令

CREATE EXTERNAL CATALOG deltalake_catalog_hms
PROPERTIES
(
"type" = "deltalake",
"hive.metastore.type" = "hive",
"hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
"aws.s3.enable_ssl" = "true",
"aws.s3.enable_path_style_access" = "true",
"aws.s3.endpoint" = "<s3_endpoint>",
"aws.s3.access_key" = "<iam_user_access_key>",
"aws.s3.secret_key" = "<iam_user_secret_key>"
);

Microsoft Azure Storage

Azure Blob Storage
  • 如果您选择 Shared Key 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.blob.storage_account" = "<blob_storage_account_name>",
    "azure.blob.shared_key" = "<blob_storage_account_shared_key>"
    );
  • 如果您选择 SAS Token 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.blob.storage_account" = "<blob_storage_account_name>",
    "azure.blob.container" = "<blob_container_name>",
    "azure.blob.sas_token" = "<blob_storage_account_SAS_token>"
    );
Azure Data Lake Storage Gen1
  • 如果您选择 Managed Service Identity 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.adls1.use_managed_service_identity" = "true"
    );
  • 如果您选择 Service Principal 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.adls1.oauth2_client_id" = "<application_client_id>",
    "azure.adls1.oauth2_credential" = "<application_client_credential>",
    "azure.adls1.oauth2_endpoint" = "<OAuth_2.0_authorization_endpoint_v2>"
    );
Azure Data Lake Storage Gen2
  • 如果您选择 Managed Identity 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.adls2.oauth2_use_managed_identity" = "true",
    "azure.adls2.oauth2_tenant_id" = "<service_principal_tenant_id>",
    "azure.adls2.oauth2_client_id" = "<service_client_id>"
    );
  • 如果您选择 Shared Key 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.adls2.storage_account" = "<storage_account_name>",
    "azure.adls2.shared_key" = "<shared_key>"
    );
  • 如果您选择 Service Principal 身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "azure.adls2.oauth2_client_id" = "<service_client_id>",
    "azure.adls2.oauth2_client_secret" = "<service_principal_client_secret>",
    "azure.adls2.oauth2_client_endpoint" = "<service_principal_client_endpoint>"
    );

Google GCS

  • 如果您选择基于 VM 的身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "gcp.gcs.use_compute_engine_service_account" = "true"
    );
  • 如果您选择基于服务帐户的身份验证方法,请运行如下命令

    CREATE EXTERNAL CATALOG deltalake_catalog_hms
    PROPERTIES
    (
    "type" = "deltalake",
    "hive.metastore.type" = "hive",
    "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
    "gcp.gcs.service_account_email" = "<google_service_account_email>",
    "gcp.gcs.service_account_private_key_id" = "<google_service_private_key_id>",
    "gcp.gcs.service_account_private_key" = "<google_service_private_key>"
    );
  • 如果您选择基于 Impersonation 的身份验证方法

    • 如果您使 VM 实例模拟服务帐户,请运行如下命令

      CREATE EXTERNAL CATALOG deltalake_catalog_hms
      PROPERTIES
      (
      "type" = "deltalake",
      "hive.metastore.type" = "hive",
      "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
      "gcp.gcs.use_compute_engine_service_account" = "true",
      "gcp.gcs.impersonation_service_account" = "<assumed_google_service_account_email>"
      );
    • 如果您使服务帐户模拟另一个服务帐户,请运行如下命令

      CREATE EXTERNAL CATALOG deltalake_catalog_hms
      PROPERTIES
      (
      "type" = "deltalake",
      "hive.metastore.type" = "hive",
      "hive.metastore.uris" = "thrift://xx.xx.xx.xx:9083",
      "gcp.gcs.service_account_email" = "<google_service_account_email>",
      "gcp.gcs.service_account_private_key_id" = "<meta_google_service_account_email>",
      "gcp.gcs.service_account_private_key" = "<meta_google_service_account_email>",
      "gcp.gcs.impersonation_service_account" = "<data_google_service_account_email>"
      );

查看 Delta Lake catalog

您可以使用 SHOW CATALOGS 查询当前 StarRocks 集群中的所有 Catalog

SHOW CATALOGS;

您还可以使用 SHOW CREATE CATALOG 查询外部 Catalog 的创建语句。以下示例查询名为 deltalake_catalog_glue 的 Delta Lake catalog 的创建语句

SHOW CREATE CATALOG deltalake_catalog_glue;

切换到 Delta Lake Catalog 及其中的数据库

您可以使用以下方法之一切换到 Delta Lake catalog 及其中的数据库

  • 使用 SET CATALOG 在当前会话中指定 Delta Lake catalog,然后使用 USE 指定活动数据库

    -- Switch to a specified catalog in the current session:
    SET CATALOG <catalog_name>
    -- Specify the active database in the current session:
    USE <db_name>
  • 直接使用 USE 切换到 Delta Lake catalog 及其中的数据库

    USE <catalog_name>.<db_name>

删除 Delta Lake catalog

您可以使用 DROP CATALOG 删除外部 Catalog。

以下示例删除了名为 deltalake_catalog_glue 的 Delta Lake catalog

DROP Catalog deltalake_catalog_glue;

查看 Delta Lake 表的 Schema

您可以使用以下语法之一查看 Delta Lake 表的 Schema

  • 查看 Schema

    DESC[RIBE] <catalog_name>.<database_name>.<table_name>
  • 从 CREATE 语句中查看 Schema 和 Location

    SHOW CREATE TABLE <catalog_name>.<database_name>.<table_name>

查询 Delta Lake 表

  1. 使用 SHOW DATABASES 查看 Delta Lake 集群中的数据库

    SHOW DATABASES FROM <catalog_name>
  2. 切换到 Delta Lake Catalog 及其中的数据库.

  3. 使用 SELECT 查询指定数据库中的目标表

    SELECT count(*) FROM <table_name> LIMIT 10

从 Delta Lake 加载数据

假设您有一个名为 olap_tbl 的 OLAP 表,您可以转换和加载数据,如下所示

INSERT INTO default_catalog.olap_db.olap_tbl SELECT * FROM deltalake_table

配置元数据缓存和更新策略

从 v3.3.3 版本开始,Delta Lake Catalog 支持 元数据本地缓存和检索

您可以通过以下 FE 参数配置 Delta Lake 元数据缓存刷新

配置项默认描述
enable_background_refresh_connector_metadatatrue是否启用定期 Delta Lake 元数据缓存刷新。 启用后,StarRocks 会轮询 Delta Lake 集群的 Metastore(Hive Metastore 或 AWS Glue),并刷新经常访问的 Delta Lake catalog 的缓存元数据以感知数据更改。 true 表示启用 Delta Lake 元数据缓存刷新,false 表示禁用。
background_refresh_metadata_interval_millis600000两次连续 Delta Lake 元数据缓存刷新之间的间隔。 单位:毫秒。
background_refresh_metadata_time_secs_since_last_access_secs86400Delta Lake 元数据缓存刷新任务的过期时间。 对于已访问的 Delta Lake catalog,如果超过指定时间未访问,StarRocks 将停止刷新其缓存的元数据。 对于未访问的 Delta Lake catalog,StarRocks 将不会刷新其缓存的元数据。 单位:秒。

附录:元数据本地缓存和检索

由于重复解压缩和解析元数据文件可能会引入不必要的延迟,因此 StarRocks 采用了一种新的元数据缓存策略,即缓存反序列化的内存对象。 通过将这些反序列化文件存储在内存中,系统可以绕过后续查询的解压缩和解析阶段。 这种缓存机制允许直接访问所需的元数据,从而显着减少检索时间。 因此,系统变得更加灵敏,更适合满足高查询需求和物化视图重写需求。

您可以通过 Catalog 属性 MetadataUpdateParams相关配置项 配置此行为。

功能支持

目前,Delta Lake catalog 支持以下表功能

  • V2 Checkpoint (从 v3.3.0 版本开始)
  • Timestamp without Timezone (从 v3.3.1 版本开始)
  • Column mapping (从 v3.3.6 版本开始)
  • Deletion Vector (从 v3.4.1 版本开始)