为了建立数据驱动型企业,在数据目录中实现企业数据资产的大众化非常重要。利用统一的数据目录,您可以快速搜索数据集,并确定数据架构、数据格式和位置。Amazon Glue Data Catalog 提供了一个统一的存储库,让不同的系统能够存储和查找元数据,以跟踪数据孤岛中的数据。
Apache Flink 是一个应用广泛的数据处理引擎,适用于可扩展的流式处理 ETL、分析和事件驱动型应用程序。该应用程序提供具备容错能力的精确时间和状态管理。Flink 可以使用统一的 API 或应用程序处理有界流(批处理)和无界流(流式处理)。在使用 Apache Flink 处理数据后,下游应用程序可以使用统一的数据目录访问精心整理的数据。有了统一的元数据,数据处理和数据消耗应用程序都可以使用相同的元数据访问表。
这篇文章向您展示了如何将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 中的 Apache Flink 与 Amazon Glue Data Catalog 集成,以便您可以实时提取流数据,并近乎实时地访问数据进行业务分析。
#### **Apache Flink 连接器和目录架构**
Apache Flink 使用连接器和目录,与数据和元数据进行交互。下图显示了用于读取/写入数据的 Apache Flink 连接器以及用于读取/写入元数据的目录架构。
![1.png](https://dev-media.amazoncloud.cn/9857415441914447b75f9b59ccb23a15_1.png "1.png")
为了读取/写入数据,Flink 提供了用于读取操作的 DynamicTableSourceFactory 接口以及用于写入操作的 DynamicTableSinkFactory 接口。另有一个 Flink 连接器实施两个接口,用于访问不同存储中的数据。例如,Flink FileSystem 连接器提供了 FileSystemTableFactory ,用于在 Hadoop Distributed File System(HDFS)或 [Amazon Simple Storage Service](https://aws.amazon.com/cn/s3/?trk=cndc-detail)([Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail))中读取/写入数据;Flink HBase 连接器提供了 HBase2DynamicTableFactory ,用于在 HBase 中读取/写入数据;而 Flink Kafka 连接器提供了 KafkaDynamicTableFactory ,用于在 Kafka 中读取/写入数据。您可以参考表和 SQL 连接器(https\://nightlies.apache.org/flink/flink-docs-release-1.15/docs/connectors/table/overview/?trk=cndc-detail), 了解更多信息。
对于元数据的读取/写入,Flink 提供了目录接口。Flink 有三种内置的目录实施。 GenericInMemoryCatalog 将目录数据存储在内存中。JdbcCatalog 将目录数据存储在 JDBC 支持的关系数据库中。截至目前,JDBC 目录支持 MySQL 和 PostgreSQL 数据库。 HiveCatalog 将目录数据存储在 Hive Metastore 中。 HiveCatalog 使用 HiveShim 来提供不同的 Hive 版本兼容性。我们可以配置不同的 Metastore 客户端,以使用 Hive Metastore 或 Amazon Glue Data Catalog。在这篇文章中,我们将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 属性(http\://aws.amazon.com/emr?trk=cndc-detail) hive.metastore.client.factory.class 配置为 com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory (请参阅使用 Amazon Glue Data Catalog 作为 Hive 的 Metastore,https\://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-metastore-glue.html?trk=cndc-detail), 这样我们就可以使用 Amazon Glue Data Catalog 来存储 Flink 目录数据。有关更多信息,请参阅目录(https\://nightlies.apache.org/flink/flink-docs-release-1.15/docs/dev/table/catalogs/?trk=cndc-detail)。
大多数 Flink 内置连接器(例如 Kafka、[Amazon Kinesis](https://aws.amazon.com/cn/kinesis/?trk=cndc-detail)、[Amazon DynamoDB](https://aws.amazon.com/cn/dynamodb/?trk=cndc-detail)、Elasticsearch 或 FileSystem)都可以使用 Flink HiveCatalog ,将元数据存储在 Amazon Glue Data Catalog 中。然而,一些连接器实施(如 Apache Iceberg)有单独的目录管理机制。Iceberg 中的 FlinkCatalog 实施了 Flink 中的目录接口。Iceberg 中的 FlinkCatalog 对自己的目录实施提供了封装机制。下图显示了 Apache Flink、Iceberg 连接器和目录之间的关系。有关更多信息,请参阅创建目录和使用目录(https\://iceberg.apache.org/docs/latest/flink/#creating-catalogs-and-using-catalogs?trk=cndc-detail) 以及目录。
![2.png](https://dev-media.amazoncloud.cn/82ac456cb03c4f6da5d8024271c00330_2.png "2.png")
Apache Hudi 也有自己的目录管理功能。HoodieCatalog 和 HoodieHiveCatalog 都在 Flink 中实施了目录接口。HoodieCatalog 将元数据存储在诸如 HDFS 这样的文件系统中。HoodieHiveCatalog 将元数据存储在 Hive Metastore 或 Amazon Glue Data Catalog 中,具体取决于您是否将 hive.metastore.client.factory.class 配置为使用 com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory。下图显示了 Apache Flink、Hudi 连接器和目录之间的关系。有关更多信息,请参阅创建目录(https\://hudi.apache.org/docs/table_management#create-catalog?trk=cndc-detail)。
![3.png](https://dev-media.amazoncloud.cn/df9f2807189c44799157bba9854d40bc_3.png "3.png")
由于 Iceberg 和 Hudi 有不同的目录管理机制,我们在这篇文章中展示了 Flink 与 Amazon Glue Data Catalog 集成的三种场景:
* 使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入 Iceberg 表
* 使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入 Hudi 表
* 使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入其他存储格式
#### **解决方案概览**
下图显示了本文章中描述的解决方案的整体架构。
![4.png](https://dev-media.amazoncloud.cn/3e9117308f3c46fdbaaba843ee0279e6_4.png "4.png")
在此解决方案中,我们启用 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL binlog 来实时提取事务更改。[Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Flink CDC 连接器读取 binlog 数据并处理数据。经过转换的数据可以存储在 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 中。我们使用 Amazon Glue Data Catalog 来存储元数据,例如表架构和表位置。[Amazon Athena](https: //aws.amazon.com/cn/athena/?trk=cndc-detail) 或 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 等下游数据使用者应用程序访问数据,以便用于业务分析。
下面是设置此解决方案的大致步骤:
1. 为 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL 启用 binlog 并初始化数据库。
2. 使用 Amazon Glue Data Catalog 创建 EMR 集群。
3. 在 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 中使用 Apache Flink CDC 提取更改数据捕获(CDC, Change Data Capture)数据。
4. 将处理后的数据存储在 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 中,并将元数据存储在 Amazon Glue Data Catalog 中。
5. 确认所有表元数据都存储在 Amazon Glue Data Catalog 中。
6. 通过 Athena 或 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 使用数据进行业务分析。
7. 更新和删除 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL 中的源记录,并验证数据湖表中是否发生相应更改。
#### **先决条件**
这篇文章使用具有以下服务权限的 Amazon Identity and Access Management(IAM)角色:
* [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL (5.7.40)
* [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) (6.9.0)
* [Amazon Athena](https: //aws.amazon.com/cn/athena/?trk=cndc-detail)
* Amazon Glue Data Catalog
* [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail)
#### 为 Amazon RDS for MySQL 启用 binlog 并初始化数据库
要在 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL 中启用 CDC,我们需要为 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL 配置二进制日志记录。有关更多信息,请参阅配置 MySQL 二进制日志记录(https\://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_LogAccess.MySQL.BinaryFormat.html?trk=cndc-detail)。 我们还在 MySQL 中创建数据库 salesdb ,并创建 customer 、 order 表和其他表,以便设置数据来源。
1\. 在 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) 控制台上,在导航窗格中选择** Parameter groups**(参数组)。
2\. 为 MySQL 创建一个新的参数组。
3.编辑您刚刚创建的参数组,设置 binlog_format=ROW 。
![5.png](https://dev-media.amazoncloud.cn/72c8cede271b44c7aa9d20320d66f2de_5.png "5.png")
4\. 编辑您刚刚创建的参数组,设置 binlog_row_image=full 。
![6.png](https://dev-media.amazoncloud.cn/94a4f0dfee5d47f8b284874e6701516d_6.png "6.png")
5\. 使用参数组创建 RDS for MySQL 数据库实例。
6\. 记下 hostname 、 username 和 password 的值,我们稍后会使用这些值。
7\. 运行以下命令,从 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 下载 MySQL 数据库初始化脚本:
```
aws s3 cp s3://emr-workshops-us-west-2/glue_immersion_day/scripts/salesdb.sql ./salesdb.sql
```
8\. 连接到 RDS for MySQL 数据库并运行 salesdb.sql 命令以初始化数据库,根据您的 RDS for MySQL 数据库配置提供主机名和用户名:
```
mysql -h <hostname> -u <username> -p
mysql> source salesdb.sql
```
#### 使用 Amazon Glue Data Catalog 创建 EMR 集群
从 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 6.9.0 开始,Flink 表 API/SQL 可以与 Amazon Glue Data Catalog 集成。要使用 Flink 与 Amazon Glue 的集成,您必须创建 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 6.9.0 或更高版本。
1\. 为 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 与 Data Catalog 的集成创建文件 iceberg.properties 。当表格式为 Iceberg 时,您的文件应包含如下内容:
```
iceberg.catalog.type=glue
connector.name=iceberg
```
2\. 将 iceberg.properties 上传到 S3 存储桶,例如 DOC-EXAMPLE-BUCKET 。
有关如何将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 与 Iceberg 集成的更多信息,请参阅将 Iceberg 集群与 Trino 结合使用(https\://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-iceberg-use-trino-cluster.html?trk=cndc-detail)。
3\. 创建 trino-glue-catalog-setup.sh 文件以配置 Trino 与 Data Catalog 的集成。使用 trino-glue-catalog-setup.sh 作为引导脚本。您的文件应包含以下内容(将 DOC-EXAMPLE-BUCKET 替换为 S3 存储桶名称):
```
set -ex
sudo aws s3 cp s3://DOC-EXAMPLE-BUCKET/iceberg.properties /etc/trino/conf/catalog/iceberg.properties
```
4\. 将 trino-glue-catalog-setup.sh 上传到 S3 存储桶( DOC-EXAMPLE-BUCKET )。
要运行引导脚本,请参阅创建引导操作以安装其它软件(https\://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-bootstrap.html?trk=cndc-detail)。
5\. 创建 flink-glue-catalog-setup.sh 文件,以配置 Flink 与 Data Catalog 的集成。
6\. 使用脚本运行器,将 flink-glue-catalog-setup.sh 脚本作为步骤函数运行。
您的文件应包含以下内容(此处的 JAR 文件名使用 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 6.9.0;更高版本的 JAR 名称可能会有所不同,因此请务必根据 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 版本进行更新)。
请注意,此处我们使用 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 步骤而不是引导程序来运行此脚本。在预置 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Flink 后,将运行 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 步骤脚本。
```
set -ex
sudo cp /usr/lib/hive/auxlib/aws-glue-datacatalog-hive3-client.jar /usr/lib/flink/lib
sudo cp /usr/lib/hive/lib/antlr-runtime-3.5.2.jar /usr/lib/flink/lib
sudo cp /usr/lib/hive/lib/hive-exec.jar /lib/flink/lib
sudo cp /usr/lib/hive/lib/libfb303-0.9.3.jar /lib/flink/lib
sudo cp /usr/lib/flink/opt/flink-connector-hive_2.12-1.15.2.jar /lib/flink/lib
sudo chmod 755 /usr/lib/flink/lib/aws-glue-datacatalog-hive3-client.jar
sudo chmod 755 /usr/lib/flink/lib/antlr-runtime-3.5.2.jar
sudo chmod 755 /usr/lib/flink/lib/hive-exec.jar
sudo chmod 755 /usr/lib/flink/lib/libfb303-0.9.3.jar
sudo chmod 755 /usr/lib/flink/lib/flink-connector-hive_2.12-1.15.2.jar
sudo wget https://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mysql-cdc/2.2.1/flink-sql-connector-mysql-cdc-2.2.1.jar -O /lib/flink/lib/flink-sql-connector-mysql-cdc-2.2.1.jar
sudo chmod 755 /lib/flink/lib/flink-sql-connector-mysql-cdc-2.2.1.jar
sudo ln -s /usr/share/aws/iceberg/lib/iceberg-flink-runtime.jar /usr/lib/flink/lib/
sudo ln -s /usr/lib/hudi/hudi-flink-bundle.jar /usr/lib/flink/lib/
sudo mv /usr/lib/flink/opt/flink-table-planner_2.12-1.15.2.jar /usr/lib/flink/lib/
sudo mv /usr/lib/flink/lib/flink-table-planner-loader-1.15.2.jar /usr/lib/flink/opt/
```
7\. 将 flink-glue-catalog-setup.sh 上传到 S3 存储桶( DOC-EXAMPLE-BUCKET )。
有关如何配置 Flink 和 Hive Metastore 的更多信息,请参阅在 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 中将 Flink 配置为 Hive Metastore(https\://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-configure.html?trk=cndc-detail)。
有关运行 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 步骤脚本的更多详细信息,请参阅在 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 集群上运行命令和脚本(https\://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-commandrunner.html?trk=cndc-detail)。
8\. 使用 Hive、Flink 和 Trino 应用程序创建 EMR 6.9.0 集群。
您可以使用 Amazon 命令行界面(Amazon CLI)或 Amazon 管理控制台创建 EMR 集群。有关说明,请参阅相应的小节。
#### **使用 Amazon CLI 创建 EMR 集群**
要使用 Amazon CLI,请完成以下步骤:
1\. 创建 emr-flink-trino-glue.json 文件,以将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 配置为使用 Data Catalog。您的文件应包含以下内容:
```
[
{
"Classification": "hive-site",
"Properties": {
"hive.metastore.client.factory.class": "com.amazonaws.glue.catalog.metastore.AWSGlueDataCatalogHiveClientFactory"
}
},
{
"Classification": "trino-connector-hive",
"Properties": {
"hive.metastore": "glue"
}
}
]
```
2\. 运行以下命令创建 EMR 集群。提供您的本地 emr-flink-trino-glue.json 父文件夹路径、S3 存储桶、EMR 集群区域、EC2 密钥名称和存储 EMR 日志的 S3 存储桶。
```
aws emr create-cluster --release-label emr-6.9.0 \\
--applications Name=Hive Name=Flink Name=Spark Name=Trino \\
--region us-west-2 \\
--name flink-trino-glue-emr69 \\
--configurations "file:///<your configuration path>/emr-flink-trino-glue.json" \\
--bootstrap-actions '[{"Path":"s3://DOC-EXAMPLE-BUCKET/trino-glue-catalog-setup.sh","Name":"Add iceberg.properties for Trino"}]' \\
--steps '[{"Args":["s3://DOC-EXAMPLE-BUCKET/flink-glue-catalog-setup.sh"],"Type":"CUSTOM_JAR","ActionOnFailure":"CONTINUE","Jar":"s3://<region>.elasticmapreduce/libs/script-runner/script-runner.jar","Properties":"","Name":"Flink-glue-integration"}]' \\
--instance-groups \\
InstanceGroupType=MASTER,InstanceType=m6g.2xlarge,InstanceCount=1 \\
InstanceGroupType=CORE,InstanceType=m6g.2xlarge,InstanceCount=2 \\
--use-default-roles \\
--ebs-root-volume-size 30 \\
--ec2-attributes KeyName=<keyname> \\
--log-uri s3://<s3-bucket-for-emr>/elasticmapreduce/
```
#### 在控制台上创建 EMR 集群
要使用控制台,请完成以下步骤:
1\. 在 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 控制台上,创建 EMR 集群,然后在**Amazon Glue Data Catalog** 设置中选择 **Use for Hive table metadata**(用于 Hive 表元数据)。
2\. 使用以下代码添加配置设置:
```
[
{
"Classification": "trino-connector-hive",
"Properties": {
"hive.metastore": "glue"
}
}
]
```
![7.png](https://dev-media.amazoncloud.cn/a4b8339e6a274d0e9616d14453499d29_7.png "7.png")
3\. 在 **Steps**(步骤)部分中,添加一个名为 **Custom JAR**(自定义 JAR)的步骤。
4\. 将 **JAR location**(JAR 位置)设置为 s3://\<region>.elasticmapreduce/libs/script-runner/script-runner.jar ,其中 \<region> 是 EMR 集群所在的区域。
5\. 将 **Arguments**(参数)设置为您之前上传的 S3 路径。
![8.png](https://dev-media.amazoncloud.cn/abd0626a8bc84bc99e9afd94b171152e_8.png "8.png")
6\. 在 **Bootstrap Actions**(引导操作)部分中,选择** Custom Action**(自定义操作)。
7\. 将 **Script location**(脚本位置)设置为您上传的 S3 路径。
![9.png](https://dev-media.amazoncloud.cn/721034f314fe40638c773d227e457688_9.png "9.png")
8\. 继续执行后续步骤以完成 EMR 集群的创建。
#### **在 Amazon EMR 中 使用 Apache Flink CDC 提取 CDC 数据**
Flink CDC 连接器支持读取数据库快照,并捕获配置的表中的更新。我们已经通过下载 flink-sql-connector-mysql-cdc-2.2.1.jar(https\://repo1.maven.org/maven2/com/ververica/flink-sql-connector-mysql-cdc/2.2.1/flink-sql-connector-mysql-cdc-2.2.1.jar?trk=cndc-detail) 并在创建 EMR 集群时将其放入 Flink 库,部署了适用于 MySQL 的 Flink CDC 连接器。Flink CDC 连接器可以使用 Flink Hive 目录将 Flink CDC 表架构存储到 Hive Metastore 或 Amazon Glue Data Catalog 中。在这篇文章中,我们使用 Data Catalog 来存储我们的 Flink CDC 表。
完成以下步骤,使用 Flink CDC 提取 RDS for MySQL 数据库和表,并将元数据存储在 Data Catalog 中:
1\. 通过 SSH 连接到 EMR 主节点。
2\. 通过运行以下命令在 YARN 会话上启动 Flink,提供您的 S3 存储桶名称:
```
flink-yarn-session -d -jm 2048 -tm 4096 -s 2 \\
-D state.backend=rocksdb \\
-D state.backend.incremental=true \\
-D state.checkpoint-storage=filesystem \\
-D state.checkpoints.dir=s3://<flink-glue-integration-bucket>/flink-checkponts/ \\
-D state.checkpoints.num-retained=10 \\
-D execution.checkpointing.interval=10s \\
-D execution.checkpointing.mode=EXACTLY_ONCE \\
-D execution.checkpointing.externalized-checkpoint-retention=RETAIN_ON_CANCELLATION \\
-D execution.checkpointing.max-concurrent-checkpoints=1
```
3\. 运行以下命令来启动 Flink SQL 客户端 CLI:
```
/usr/lib/flink/bin/sql-client.sh embedded
```
4\. 通过将目录类型指定为 hive 并提供您的 S3 存储桶名称,创建 Flink Hive 目录:
```
CREATE CATALOG glue_catalog WITH (
'type' = 'hive',
'default-database' = 'default',
'hive-conf-dir' = '/etc/hive/conf.dist'
);
USE CATALOG glue_catalog;
CREATE DATABASE IF NOT EXISTS flink_cdc_db WITH ('hive.database.location-uri'= 's3://<flink-glue-integration-bucket>/flink-glue-for-hive/warehouse/')
use flink_cdc_db;
```
因为我们使用 Amazon Glue Data Catalog 配置 EMR Hive 目录,所以在 Flink Hive 目录中创建的所有数据库和表都存储在 Data Catalog 中。
5\. 创建 Flink CDC 表,提供您先前创建的 RDS for MySQL 实例的主机名、用户名和密码。
请注意,由于 RDS for MySQL 的用户名和密码将作为表属性存储在 Data Catalog 中,因此您应启用使用 Amazon Lake Formation 的 Amazon Glue 数据库/表授权,以便保护您的敏感数据。
```
CREATE TABLE `glue_catalog`.`flink_cdc_db`.`customer_cdc` (
`CUST_ID` double NOT NULL,
`NAME` STRING NOT NULL,
`MKTSEGMENT` STRING NOT NULL,
PRIMARY KEY (`CUST_ID`) NOT ENFORCED
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '<hostname>',
'port' = '3306',
'username' = '<username>',
'password' = '<password>',
'database-name' = 'salesdb',
'table-name' = 'CUSTOMER'
);
CREATE TABLE `glue_catalog`.`flink_cdc_db`.`customer_site_cdc` (
`SITE_ID` double NOT NULL,
`CUST_ID` double NOT NULL,
`ADDRESS` STRING NOT NULL,
`CITY` STRING NOT NULL,
`STATE` STRING NOT NULL,
`COUNTRY` STRING NOT NULL,
`PHONE` STRING NOT NULL,
PRIMARY KEY (`SITE_ID`) NOT ENFORCED
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '<hostname>',
'port' = '3306',
'username' = '<username>',
'password' = '<password>',
'database-name' = 'salesdb',
'table-name' = 'CUSTOMER_SITE'
);
CREATE TABLE `glue_catalog`.`flink_cdc_db`.`sales_order_all_cdc` (
`ORDER_ID` int NOT NULL,
`SITE_ID` double NOT NULL,
`ORDER_DATE` TIMESTAMP NOT NULL,
`SHIP_MODE` STRING NOT NULL
) WITH (
'connector' = 'mysql-cdc',
'hostname' = '<hostname>',
'port' = '3306',
'username' = '<username>',
'password' = '<password>',
'database-name' = 'salesdb',
'table-name' = 'SALES_ORDER_ALL',
'scan.incremental.snapshot.enabled' = 'FALSE'
);
```
6\. 查询您刚刚创建的表:
```
SELECT count(O.ORDER_ID) AS ORDER_COUNT,
C.CUST_ID,
C.NAME,
C.MKTSEGMENT
FROM customer_cdc C
JOIN customer_site_cdc CS
ON C.CUST_ID = CS.CUST_ID
JOIN sales_order_all_cdc O
ON O.SITE_ID = CS.SITE_ID
GROUP BY C.CUST_ID,
C.NAME,
C.MKTSEGMENT;
```
您会得到一个查询结果,如下面的屏幕截图所示。
![10.png](https://dev-media.amazoncloud.cn/d031c91788734a0fb32ec2e79543563d_10.png "10.png")
#### **将处理后的数据存储在 Amazon S3 中 , 并将元数据存储在 Data Catalog 中**
当我们在 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) for MySQL 中提取关系数据库数据时,原始数据可能会发生更新或被删除。为了支持数据更新和删除,我们可以选择诸如 Apache Iceberg 或 Apache Hudi 这样的数据湖技术来存储处理后的数据。正如我们之前提到的,Iceberg 和 Hudi 有不同的目录管理机制。我们展示了两种使用 Flink 读取/写入在 Amazon Glue Data Catalog 中包含元数据的 Iceberg 和 Hudi 表的场景。
对于非 Iceberg 和非 Hudi,我们使用 FileSystem Parquet 文件来显示 Flink 内置连接器是如何使用 Data Catalog 的。
**使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入 Iceberg 表**
下图显示了此配置的架构。
![11.png](https://dev-media.amazoncloud.cn/34ace4f8d0cc4f3397d72834109e45b7_11.png "11.png")
1\. 通过将 catalog-impl 指定为 org.apache.iceberg.aws.glue.GlueCatalog,使用 Data Catalog 创建 Flink Iceberg 目录。
有关 Iceberg 的 Flink 和 Data Catalog 集成的更多信息,请参阅 Glue 目录(https\://iceberg.apache.org/docs/latest/aws/#glue-catalog?trk=cndc-detail)。
2\. 在 Flink SQL 客户端 CLI 中,运行以下命令,提供您的 S3 存储桶名称:
```
CREATE CATALOG glue_catalog_for_iceberg WITH (
'type'='iceberg',
'warehouse'='s3://<flink-glue-integration-bucket>/flink-glue-for-iceberg/warehouse/',
'catalog-impl'='org.apache.iceberg.aws.glue.GlueCatalog',
'io-impl'='org.apache.iceberg.aws.s3.S3FileIO',
'lock-impl'='org.apache.iceberg.aws.glue.DynamoLockManager',
'lock.table'='FlinkGlue4IcebergLockTable' );
```
3\. 创建一个 Iceberg 表来存储处理后的数据:
```
USE CATALOG glue_catalog_for_iceberg;
CREATE DATABASE IF NOT EXISTS flink_glue_iceberg_db;
USE flink_glue_iceberg_db;
CREATE TABLE `glue_catalog_for_iceberg`.`flink_glue_iceberg_db`.`customer_summary` (
`CUSTOMER_ID` bigint,
`NAME` STRING,
`MKTSEGMENT` STRING,
`COUNTRY` STRING,
`ORDER_COUNT` BIGINT,
PRIMARY KEY (`CUSTOMER_ID`) NOT Enforced
)
WITH (
'format-version'='2',
'write.upsert.enabled'='true');
```
4\. 将处理后的数据插入到 Iceberg 中:
```
INSERT INTO `glue_catalog_for_iceberg`.`flink_glue_iceberg_db`.`customer_summary`
SELECT CAST(C.CUST_ID AS BIGINT) CUST_ID,
C.NAME,
C.MKTSEGMENT,
CS.COUNTRY,
count(O.ORDER_ID) AS ORDER_COUNT
FROM `glue_catalog`.`flink_cdc_db`.`customer_cdc` C
JOIN `glue_catalog`.`flink_cdc_db`.`customer_site_cdc` CS
ON C.CUST_ID = CS.CUST_ID
JOIN `glue_catalog`.`flink_cdc_db`.`sales_order_all_cdc` O
ON O.SITE_ID = CS.SITE_ID
GROUP BY C.CUST_ID,
C.NAME,
C.MKTSEGMENT,
CS.COUNTRY;
```
#### **使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入 Hudi 表**
下图显示了此配置的架构。
![12.png](https://dev-media.amazoncloud.cn/a8770bf9e420412b91909a4aa3566549_12.png "12.png")
请完成以下步骤:
1\. 通过将 mode 指定为 hms ,为 Hudi 创建一个使用 Hive 目录的目录。
因为我们在创建 EMR 集群时已经将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 配置为使用 Data Catalog,所以此 Hudi Hive 目录在后台使用 Data Catalog。有关 Hudi 的 Flink 和 Data Catalog 集成的更多信息,请参阅创建目录。
2\. 在 Flink SQL 客户端 CLI 中,运行以下命令,提供您的 S3 存储桶名称:
```
CREATE CATALOG glue_catalog_for_hudi WITH (
'type' = 'hudi',
'mode' = 'hms',
'table.external' = 'true',
'default-database' = 'default',
'hive.conf.dir' = '/etc/hive/conf.dist',
'catalog.path' = 's3://<flink-glue-integration-bucket>/flink-glue-for-hudi/warehouse/'
);
```
3\. 使用 Data Catalog 创建 Hudi 表,并提供您的 S3 存储桶名称:
```
USE CATALOG glue_catalog_for_hudi;
CREATE DATABASE IF NOT EXISTS flink_glue_hudi_db;
use flink_glue_hudi_db;
CREATE TABLE `glue_catalog_for_hudi`.`flink_glue_hudi_db`.`customer_summary` (
`CUSTOMER_ID` bigint,
`NAME` STRING,
`MKTSEGMENT` STRING,
`COUNTRY` STRING,
`ORDER_COUNT` BIGINT,
PRIMARY KEY (`CUSTOMER_ID`) NOT Enforced
)
WITH (
'connector' = 'hudi',
'write.tasks' = '4',
'path' = 's3://<flink-glue-integration-bucket>/flink-glue-for-hudi/warehouse/customer_summary',
'table.type' = 'COPY_ON_WRITE',
'read.streaming.enabled' = 'true',
'read.streaming.check-interval' = '1'
);
```
4\. 将处理后的数据插入到 Hudi 中:
```
INSERT INTO `glue_catalog_for_hudi`.`flink_glue_hudi_db`.`customer_summary`
SELECT CAST(C.CUST_ID AS BIGINT) CUST_ID,
C.NAME,
C.MKTSEGMENT,
CS.COUNTRY,
count(O.ORDER_ID) AS ORDER_COUNT
FROM `glue_catalog`.`flink_cdc_db`.`customer_cdc` C
JOIN `glue_catalog`.`flink_cdc_db`.`customer_site_cdc` CS
ON C.CUST_ID = CS.CUST_ID
JOIN `glue_catalog`.`flink_cdc_db`.`sales_order_all_cdc` O
ON O.SITE_ID = CS.SITE_ID
GROUP BY C.CUST_ID,
C.NAME,
C.MKTSEGMENT,
CS.COUNTRY;
```
#### **使用 Glue Data Catalog 中的元数据,在 Flink 中读取/写入其他存储格式**
下图显示了此配置的架构。
![13.png](https://dev-media.amazoncloud.cn/d73784a90117432d96b8f939e668bdb9_13.png "13.png")
我们已经在上一步中创建了 Flink Hive 目录,因此我们将重用该目录。
1\. 在 Flink SQL 客户端 CLI 中,运行以下命令:
```
USE CATALOG glue_catalog;
CREATE DATABASE IF NOT EXISTS flink_hive_parquet_db;
use flink_hive_parquet_db;
```
我们将 SQL 方言更改为 Hive,以使用 Hive 语法创建一个表。
2\. 使用以下 SQL 创建一个表,并提供您的 S3 存储桶名称:
```
SET table.sql-dialect=hive;
CREATE TABLE `customer_summary` (
`CUSTOMER_ID` bigint,
`NAME` STRING,
`MKTSEGMENT` STRING,
`COUNTRY` STRING,
`ORDER_COUNT` BIGINT
)
STORED AS parquet
LOCATION 's3://<flink-glue-integration-bucket>/flink-glue-for-hive-parquet/warehouse/customer_summary';
```
由于 Parquet 文件不支持更新的行,因此我们无法使用来自 CDC 数据的数据。不过,我们可以使用来自 Iceberg 或 Hudi 的数据。
3\. 使用以下代码查询 Iceberg 表并将数据插入到 Parquet 表中:
```
SET table.sql-dialect=default;
SET execution.runtime-mode = batch;
INSERT INTO `glue_catalog`.`flink_hive_parquet_db`.`customer_summary`
SELECT * from `glue_catalog_for_iceberg`.`flink_glue_iceberg_db`.`customer_summary`;
```
#### 确认所有表元数据都存储在 Data Catalog 中
您可以导航到 Amazon Glue 控制台,以确认所有表都存储在 Data Catalog 中。
1\. 在 Amazon Glue 控制台上,选择导航窗格中的 **Databases**(数据库)以列出我们创建的所有数据库。
![14.png](https://dev-media.amazoncloud.cn/1c4c049ed6594dea92a0bea17f40ed78_14.png "14.png")
2\. 打开一个数据库,并验证所有表是否都在该数据库中。
![15.png](https://dev-media.amazoncloud.cn/81ba9b6e8d384163b3398fa9ed822892_15.png "15.png")
#### 通过 Athena 或 Amazon EMR Trino 使用数据进行业务分析
您可以使用 Athena 或 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 来访问结果数据。
##### **使用 Athena 查询数据**
要使用 Athena 访问数据,请完成以下步骤:
1\. 打开 Athena 查询编辑器。
2\. 为 **Database**(数据库)选择 flink_glue_iceberg_db。
您应该会看到列出的 customer_summary 表。
3\. 运行以下 SQL 脚本来查询 Iceberg 结果表:
```
select * from customer_summary order by order_count desc limit 10
```
查询结果将类似以下屏幕截图所示。
![16.png](https://dev-media.amazoncloud.cn/09f27d34b55d45809a7a488f39087d4a_16.png "16.png")
4\. 对于 Hudi 表,将 **Database**(数据库)更改为 flink_glue_hudi_db,然后运行相同的 SQL 查询。
![17.png](https://dev-media.amazoncloud.cn/c2d4b0ea228346ca9810dd1c1de6d041_17.png "17.png")
5\. 对于 Parquet 表,将 **Database**(数据库)更改为 flink_hive_parquet_db,然后运行相同的 SQL 查询。
![18.png](https://dev-media.amazoncloud.cn/10f3961e277d40c1a3b40b204a8268da_18.png "18.png")
#### **使用 Amazon EMR Trino 查询数据**
要使用 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 访问 Iceberg,请通过 SSH 连接到 EMR 主节点。
1\. 运行以下命令以启动 Trino CLI:
```
trino-cli --catalog iceberg
```
[Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 现在可以查询 Amazon Glue Data Catalog 中的表。
2\. 运行以下命令来查询结果表:
```
show schemas;
use flink_glue_iceberg_db;
show tables;
select * from customer_summary order by order_count desc limit 10;
```
查询结果类似于以下屏幕截图。
![19.png](https://dev-media.amazoncloud.cn/154beaec102f45f7ab8a88264a96d667_19.png "19.png")
3\. 退出 Trino CLI。
4\. 使用 hive catalog 启动 Trino CLI 以查询 Hudi 表:
```
trino-cli --catalog hive
```
5\. 运行以下命令来查询 Hudi 表:
```
show schemas;
use flink_glue_hudi_db;
show tables;
select * from customer_summary order by order_count desc limit 10;
```
#### **更新和删除 Amazon RDS for MySQL 中的源记录,并验证数据湖表中是否发生相应更改**
我们可以在 RDS for MySQL 数据库中更新和删除一些记录,然后验证更改是否反映在 Iceberg 和 Hudi 表中。
1\. 连接到 RDS for MySQL 数据库并运行以下 SQL:
```
update CUSTOMER set NAME = 'updated_name' where CUST_ID=7;
delete from CUSTOMER where CUST_ID=11;
```
2\. 使用 Athena 或 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Trino 查询 customer_summary 表。
更新和删除的记录反映在 Iceberg 和 Hudi 表中。
![20.png](https://dev-media.amazoncloud.cn/39481c47566e4f7382ff6ab986d0d6f9_20.png "20.png")
#### 清理
完成本练习后,请完成以下步骤以删除您的资源并停止产生费用:
1\. 删除 RDS for MySQL 数据库。
2\. 删除 EMR 集群。
3\. 删除在 Data Catalog 中创建的数据库和表。
4\. 删除 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 中的文件。
#### **小结**
这篇文章向您展示了如何将 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 中的 Apache Flink 与 Amazon Glue Data Catalog 集成。您可以使用 Flink SQL 连接器在不同的存储区读取/写入数据,例如 Kafka、CDC、HBase、[Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail)、Iceberg 或 Hudi。您也可以将元数据存储在 Data Catalog 中。Flink 表 API 具有相同的连接器和目录实施机制。在单个会话中,我们可以使用多个指向不同类型的目录实例(如 IcebergCatalog 和 HiveCatalog ),然后在查询中互换使用它们。您也可以使用 Flink 表 API 编写代码,开发集成 Flink 与 Data Catalog 的相同解决方案。
在我们的解决方案中,我们直接通过 Flink CDC 使用了 RDS for MySQL 二进制日志。您也可以使用 Amazon MSK Connect 通过 MySQL Debezim 使用二进制日志,并将数据存储在 [Amazon Managed Streaming for Apache Kafka](https://aws.amazon.com/cn/msk/?trk=cndc-detail)(Amazon MSK)中。有关更多信息,请参阅使用 Amazon MSK Connect、Apache Flink 和 Apache Hudi 创建低延迟的源到数据湖管道(https\://aws.amazon.com/blogs/big-data/create-a-low-latency-source-to-data-lake-pipeline-using-amazon-msk-connect-apache-flink-and-apache-hudi/?trk=cndc-detail)。
借助 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Flink 统一的批处理和流式数据处理功能,您可以通过一个计算引擎提取和处理数据。通过将 Apache Iceberg 和 Hudi 集成到 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 中,您可以构建一个可演变且可扩展的数据湖。通过 Amazon Glue Data Catalog,您可以统一管理所有企业数据目录并轻松使用数据。
按照这篇文章中的步骤,使用 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) Flink 和 Amazon Glue Data Catalog 构建统一的批处理和流处理解决方案。如果您有任何疑问,请发表评论。
#### **本篇作者**
![21.jpg](https://dev-media.amazoncloud.cn/27a07948bb7d4b869e28cf085ed04a16_21.jpg "21.jpg")
**Jianwei Li**
*TAM 的高级分析专家。他为 Amazon Enterprise Support 客户提供设计和构建现代数据平台的顾问服务。*
![22.jpg](https://dev-media.amazoncloud.cn/63c3e1ea497c459c8685397e7f59aea3_22.jpg "22.jpg")
**Samrat Deb**
*[Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 的软件开发工程师。闲暇时,他喜欢探索新的地方、不同的文化和美食。*
![23.jpg](https://dev-media.amazoncloud.cn/df3fc39d757a400dac0f20d99837727d_23.jpg "23.jpg")
**Prabhu Josephraj**
*是 [Amazon EMR](https://aws.amazon.com/cn/emr/?trk=cndc-detail) 的高级软件开发工程师。他专注于领导团队在 Apache Hadoop 和 Apache Flink 中构建解决方案。闲暇时,Prabhu 喜欢与家人共度时光。*