###### **本文作者**
**Rohit Vashishtha 、 Adam Levin 、 Jyoti Aggarwal 、BP Yau 和 Vijay Karumajji**
亚马逊云科技在 re:Invent 2022 大会上推出了 [Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 集成功能,现在,该功能已通过 [Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) MySQL-Compatible(兼容第三3版)发布了正式版本(与MySQL 8.0兼容),可使用的地区包括 *us-east-1* 、*us-east-2* 、*us-west-2* 、*ap-northeast-1* 和 *eu-west-1* 。
作为入门级指南,这篇文章将手把手教您如何利用这一功能实现近实时分析。
![1.png](https://dev-media.amazoncloud.cn/d87ed5d4c7c54ab48afa8c99fb9665b5_1.png "1.png")
##### **挑战**
目前,各行各业的客户都在想方设法增加营收,提升客户参与度,为此,他们积极部署近实时的分析应用场景,例如用户个性化策略、欺诈检测、库存监控等等。在分析这些应用场景的事务型数据时,常见两种方式:
* 分析事务型数据库中的现有数据(例如,阅读副本、联邦查询和分析加速软件)
* 将数据迁移到经过优化的数据存储中,这种存储能更有效地运行数据仓库等分析查询
zero-ETL 集成的目的主要是为了简化后一种方式。
将数据从事务型数据库迁移至一个分析数据仓库的常用办法是 ETL ,即通过提取( Extract ),转换清洗( Transform )和加载( Load ),也就是将来自多个数据源的数据结合成为一个大型、集中式的代码库(数据仓库)。搭建 ETL 管道很昂贵,管理也非常复杂。由于有多个接触点,ETL 管道上的偶发错误会导致长时间的延迟,使依赖这些数据的应用虽然在数据仓库中可用,但可能出现数据过期、丢失的问题,甚至可能导致错失商机的严重后果。
如果客户想要对多个事务型数据库的数据进行统一分析,那么,采用就地分析已有数据的解决方案可能是最好的选择,因为这些解决方案能够在一个数据库中加速完成查询。但这些系统也有局限性——它们无法将多个事务型数据库中的数据汇集在一起。
##### **Zero-ETL**
亚马逊云科技正将 zero-ETL 新愿景变为现实,通过 Aurora zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的集成,Aurora zero-ETL 的交易数据与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的分析功能就可以结合在一起。此举能够最大程度地简化 Aurora 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 之间定制化 ETL 管道的搭建和管理工作。现在,数据工程师可以通过将来自于多个 Aurora 数据库集群的数据复制到已有或新的 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 实例中,由此获得跨应用与分区的全面洞察。所有 Aurora 数据库中的更新,都将自动地并且持续性地传输到 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 中,数据工程师由此可以近乎实时地获得最新信息。不仅如此,这整个解决方案都可以设置为 serverless ,并根据数据量动态扩展或缩减规模,企业无需管理任何基础设施。
在创建 Aurora zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 集成时,客户只需按照现有的价格、根据 Aurora与[Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的用量来支付费用(包括数据传输)。使用 Aurora zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的集成功能没有额外的费用。
Aurora zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的集成完成之后,可以将源数据库中的数据复制到目标数据仓库中。只需几秒钟,这些数据就在 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 中呈现可用状态,此后,用户不仅可以使用 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 提供的分析功能,还拥有了数据共享、工作负载优化自动化、并发扩展、[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)等其它功能。用户可以在 Aurora 中实时执行数据事务处理,并利用 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 运行报告、仪表板等分析工作负载。
架构详解如下图:
![2.png](https://dev-media.amazoncloud.cn/d8c84c6b0f064b4ea1229b9f6ece35e8_2.png "2.png")
##### **解决方案概览**
让我们以票务网站 TICKIT 为例,用户通过这里在线上买卖体育赛事、演出和音乐会等的门票。该网站的交易数据被加载到 Aurora MySQL 3.03.1(或者更高版本)数据库。现在,该网站的业务分析师希望能够生成一些指标来分析长期的门票交易情况,例如卖家的交易成功率、销量最好的活动,以及相关的地点和赛季等。他们希望能够利用 zero-ETL 集成实时获得实时洞察。
这个集成是指 [Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) MySQL-Compatible 3.03.1 版 (源数据库) 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail)(目标数据库)二者的集成。源数据库的交易数据将在目标中实时刷新,实现分析查询。
[Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) MySQL-Compatible Edition(兼容版)和 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 都可以采用预置或 serverless 方式。下图中,我们采用了预置的Aurora数据库及 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) Serverless 数据仓库。若想获得发布的完产品名单,请参见亚马逊云科技文档功能。
下图是架构详解:
![3.png](https://dev-media.amazoncloud.cn/6b42cf4ae3474905a2325afef45bbe27_3.png "3.png")
zero-ETL 集成需要完成如下步骤。Aurora 和 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 完整的入门指南请参见下列文档链接。
1. 利用自定义数据库集群参数组配置 Aurora MySQL 源。
2. 为 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) Serverless 目标配置所需的资源策略以及其命名空间。
3. 更新 Redshift Serverless 工作组,启用区分大小写的标识符。
4. 配置所需的权限。
5. 创建 zero-ETL 集成。
6. 在 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 中的集成功能中创建一个数据库。
##### **利用自定义数据库集群参数组**
##### **配置Aurora MySQL 源**
创建 Aurora MySQL 数据库需要完成如下步骤:
1\. 在 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) 控制台,创建一个名为 zero-etl-custom-pg 的数据库集群参数组。
Zero-ETL 集成要求控制二进制日志记录( binlog )的 Aurora DB 集群参数必须有特定值。例如,必须启动增强的 binlog 模式( aurora_enhanced_binlog=1 )。
2\. 以下的 binlog 集群参数应设置为:
1. binlog_backup=0
2. binlog_replication_globaldb=0
3. binlog_format=ROW
4. aurora_enhanced_binlog=1
5. binlog_row_metadata=FULL
6. binlog_row_image=FULL
3\. 选择 Save changes (保存更改)。
![4.png](https://dev-media.amazoncloud.cn/cb5b1ceacca3417ea73b82d805fd07a5_4.png "4.png")
4\. 在导航条中选择 Databases(数据库), 之后选择 Create database(创建数据库)。
![5.jpg](https://dev-media.amazoncloud.cn/7e0e891747474a3fb0b52f16343f2444_5.jpg "5.jpg")
5\. 在 Available versions(可用版本)中, 选择 Aurora MySQL 3.03.1 (或更高版本)。
![6.png](https://dev-media.amazoncloud.cn/af04914c28a04ecca9f312ef001b91f7_6.png "6.png")
6\. 在 Templates(模板)中, 选择 Production(生产).
7\. 在 DB cluster identifier(DB集群识别码)中, 键入 zero-etl-source-ams 。
![7.jpg](https://dev-media.amazoncloud.cn/e2243d9a163b4fc09161d47f3bfdab37_7.jpg "7.jpg")
8\. 在 Instance configuration(实例配置)下, 选择 Memory optimized classes (内存优化级),选择一个合适的实例规模(默认 db.r6g.2xlarge )。
![8.jpg](https://dev-media.amazoncloud.cn/4ed83150ad474769b980328451e93e04_8.jpg "8.jpg")
9\. 在 Additional configuration(其它配置)下的 DB cluster parameter group (DB集群参数组)中,选择您之前创建的参数组 ( zero-etl-custom-pg )。
![9.jpg](https://dev-media.amazoncloud.cn/3595d69ff80e47dcbfaaed844d692242_9.jpg "9.jpg")
10\. 选择 Create database(创建数据库)。
几分钟之后, Aurora MySQL 数据库就会生成,并作为 zero-ETL 的源数据库。
![10.jpg](https://dev-media.amazoncloud.cn/a9384fd3e3ba4a4582c26f6663fd8348_10.jpg "10.jpg")
##### 配置 Redshift Serverless 目标
本用例创建的是一个 Redshift Serverless 数据仓库,需要完成如下步骤:
1\. 从 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 控制台,在导航条中选择 Serverless dashboard(serverless仪表板)
2\. 选择 Create preview workgroup(创建预览工作组)。
![11.jpg](https://dev-media.amazoncloud.cn/28307ff968164f7d9a1a6bbb04d7651c_11.jpg "11.jpg")
3\. 在配置 Workgroup name(工作组名称)时,键入 zero-etl-target-rs-wg 。
![12.jpg](https://dev-media.amazoncloud.cn/d7376aafdbc7422fa201fde39b066f22_12.jpg "12.jpg")
4\. 在配置 Namespace(命名空间)时, 选择 Create a new namespace(创建新的命名空间),键入 zero-etl-target-rs-ns 。
![13.jpg](https://dev-media.amazoncloud.cn/644a562b1ad94784b8bd7899da9a4b9f_13.jpg "13.jpg")
5\. 导航至 zero-etl-target-rs-ns ,选择 Resource policy(资源策略)标签。
6\. 选择 Add authorized principals(添加授权主体)。
7\. 填入亚马逊云科技用户或角色的 Amazon Resource Name( ARN ,资源名),或有权在这个命名空间创建集成的亚马逊云科技账户ID( IAM 主体)。
通过根用户将账户 ID 存为 ARN 。
![14.jpg](https://dev-media.amazoncloud.cn/62d0d1c7c7ee4a708eb0cb31d1c3a36e_14.jpg "14.jpg")
8\. 通过在命名空间中添加一个有授权的集成源,指定 Aurora MySQL DB 集群的 ARN ,该集群是 zero-ETL 的数据源。
9\. 选择 Save changes(保存修改)。
![15.jpg](https://dev-media.amazoncloud.cn/50b091a13d3d4d928a072ff5b6eb9669_15.jpg "15.jpg")
在 Configuration(配置)标签页,您可以找到 Aurora MySQL 源的 ARN 。具体如下:
![16.jpg](https://dev-media.amazoncloud.cn/3cd9d1a7e3304425b06771f351bc1c22_16.jpg "16.jpg")
<!--StartFragment-->
##### **更新 Redshift Serverless 工作组 , 启用区分大小写的标识符**
利用 Amazon Command Line Interface (CLI) 运行 update-workgroup(更新工作组)操作:
```
aws redshift-serverless update-workgroup --workgroup-name zero-etl-target-rs-wg --config-parameters parameterKey=enable_case_sensitive_identifier,parameterValue=true --region us-east-1
```
您可使用 Amazon CloudShell 或其他界面例如 Amazon Elastic Compute Cloud (Amazon EC2) ,该界面可以使用更新 Redshift Serverless 参数组的亚马逊云科技用户配置。下图展示的是如何在 CloudShell 上运行这一步骤。
![17.png](https://dev-media.amazoncloud.cn/a84e1c76e9b14c8f8333bcb2b9b69e9a_17.png "17.png")
下图显示的是如何在 [Amazon EC2 ](https://aws.amazon.com/cn/ec2/?trk=cndc-detail)上运行 update-workgroup 命令。
![18.jpg](https://dev-media.amazoncloud.cn/7a95067ceba04101a3581251ed179a98_18.jpg "18.jpg")
##### **配置所需的权限**
创建 zero-ETL 集成时,用户或角色须通过适当的 Amazon Identity and Access Management (IAM,亚马逊云科技身份及访问管理) 权限,附加基于身份的策略。下面这个策略示例允许相关主体执行如下操作:
* 为源数据库 Aurora DB 集群创建 zero-ETL 集成。
* 查看并删除所有的 zero-ETL 集成。
* 创建目标数据仓库中的入站集成。如果同一个账户拥有 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 数据仓库,而且这个账户是得到授权的数据仓库主体,则不需要此权限。请注意:针对预置版本和 serverless 版本,[Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 会使用不同的 ARN:
- 经配置的集群 – *arn:aws:redshift:{region}:{account-id}:namespace:namespace-uuid*
- Serverless – *arn:aws:redshift-serverless:{region}:{account-id}:namespace/namespace-uuid*
配置权限时须完成如下步骤:
1\. 从 IAM 控制台,在导航条中选择 Policies(策略)。
2\. 选择 Create policy(创建策略)。
3\. 利用以下 JSON 创建名为 rds-integrations 的新策略:
```
{
"Version": "2012-10-17",
"Statement": [{
"Effect": "Allow",
"Action": [
"rds:CreateIntegration"
],
"Resource": [
"arn:aws:rds:{region}:{account-id}:cluster:source-cluster",
"arn:aws:rds:{region}:{account-id}:integration:*"
]
},
{
"Effect": "Allow",
"Action": [
"rds:DescribeIntegration"
],
"Resource": ["*"]
},
{
"Effect": "Allow",
"Action": [
"rds:DeleteIntegration"
],
"Resource": [
"arn:aws:rds:{region}:{account-id}:integration:*"
]
},
{
"Effect": "Allow",
"Action": [
"redshift:CreateInboundIntegration"
],
"Resource": [
"arn:aws:redshift:{region}:{account-id}:cluster:namespace-uuid"
]
}]
}
```
策略预览:
![19.jpg](https://dev-media.amazoncloud.cn/feabc37422fc49c9985207550b4a7013_19.jpg "19.jpg")
如果您看到针对 RDS 策略操作 IAM 策略告警,那是因为该版本仍旧是公共预览中的功能。一旦版本全面可用,这些操作将成为 IAM 策略的一部分,现在您可以安全地继续操作。
4\. IAM用户或角色权限创建完成后,附加策略。
##### **创建 zero-ETL 集成**
创建 zero-ETL 集成需要完成如下步骤:
1. 从 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) 控制台, 在导航条中选择 Zero-ETL integrations( Zero-ETL集成)。
2. 选择 Create zero-ETL integration(创建 zero-ETL 集成)。
![20.jpg](https://dev-media.amazoncloud.cn/22d183357c654b0f9e029de0438852d6_20.jpg "20.jpg")
2. 在 Integration name(集成名称)一栏,填入名称,例如 zero-etl-demo 。
3. 在 Aurora MySQL 源集群,浏览并选择源集群 zero-etl-source-ams 。
![21.jpg](https://dev-media.amazoncloud.cn/d7412e1e937f44f2895796170e62f2e8_21.jpg "21.jpg")
2. 在 Destination(目标)下的 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) data warehouse([Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 数据仓库),选择 Redshift Serverless 目标命名空间 ( zero-etl-target-rs-ns )。
3. 选择 Create zero-ETL integration(创建 zero-ETL 集成)。
![22.jpg](https://dev-media.amazoncloud.cn/0978f848ca1744e0908f1383e6f8d287_22.jpg "22.jpg")
为了指定一个位于另一个亚马逊云科技账户中的目标 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 数据仓库,用户必须要先创建一个角色,以便从当前账户访问目标账户中的资源。欲了解更多信息,请参阅 Providing access to an IAM user in another Amazon account that you own (在您的另一个亚马逊云科技账户中为IAM用户提供访问权限)。
链接:
https\://docs.aws.amazon.com/IAM/latest/UserGuide/id_roles_common-scenarios_aws-accounts.html?trk=cndc-detail
利用如下权限,在目标账户中创建角色:
```
{
"Version":"2012-10-17",
"Statement":[
{
"Effect":"Allow",
"Action":[
"redshift:DescribeClusters",
"redshift-serverless:ListNamespaces"
],
"Resource":[
"*"
]
}
]
}
```
这个角色必须具有如下的信任策略,即设置了目标账户 ID 。方法是:创建角色,以一个信任主体作为另一个账户中的亚马逊云科技账户 ID 。
```
{
"Version":"2012-10-17",
"Statement":[
{
"Effect":"Allow",
"Principal":{
"AWS": "arn:aws:iam::{external-account-id}:root"
},
"Action":"sts:AssumeRole"
}
]
}
```
下图展示的是如何在 IAM 控制台上完成这个创建。
![23.png](https://dev-media.amazoncloud.cn/d79909df0506483aa3641b790d692068_23.png "23.png")
在创建 zero-ETL 集成时,选择目标账户 ID 以及您创建的角色的名字,然后继续,Specify a different account(设置一个不同的账户)选项。
您可以通过选择集成来查看详细信息,并监控进展。在将状态从 Creating (创建)更改成为 Active (已激活)时,需要几分钟的时间。具体所需时间要根据数据库源中可用数据集的规模大小而定。
![24.jpg](https://dev-media.amazoncloud.cn/5d86b93e52024176a28cfefc5a9bb519_24.jpg "24.jpg")
<!--StartFragment-->
##### **在 Amazon Redshift 中的集成功能中**
##### **创建一个数据库**
创建数据库需要完成如下步骤:
1. 在 Redshift Serverless 仪表板中,导航至 zero-etl-target-rs-ns namespace 。
2. 选择 Query data(查询数据),打开 Query Editor v2(版本2)
![25.jpg](https://dev-media.amazoncloud.cn/6fa4a4a8b67d4566b045691773d1c375_25.jpg "25.jpg")
3.
选择 Create connection (创建连接),连接后可预览 Redshift Serverless 数据仓库。
![26.jpg](https://dev-media.amazoncloud.cn/7920a84f067441bda3235209ded446be_26.jpg "26.jpg")
4. 从 svv_integration 系统表格中获取 integration_id :
```
select integration_id from svv_integration; ---- copy this result, use in the next sql
```
![27.jpg](https://dev-media.amazoncloud.cn/b79598477a234d369810e70a81da0db2_27.jpg "27.jpg")
5\. 使用上一步中的 integration_id ,通过集成创建新的数据库:
```
CREATE DATABASE aurora_zeroetl FROM INTEGRATION '';
```
集成到此全部完成,数据库源的所有截图将原样出现在目标中,更改结果也将实时同步。
##### **分析近乎实时的交易数据**
现在我们要对 TICKIT 的事务型数据进行分析。
##### **输入源 TICKIT 数据**
输入源数据需要完成如下步骤:
1\. 与 Aurora MySQL 集群连接,为 TICKIT 数据模型创建一个数据库或 schema ,确认 schema 中的表格有主密钥,然后启动加载流程:
```
mysql -h <amazon_aurora_mysql_writer_endpoint> -u admin -p
```
![28.png](https://dev-media.amazoncloud.cn/023110d7304e4f168a8d164e7e1ae8c4_28.png "28.png")
可利用以下 HTML 文件中的脚本在 [Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) MySQL-Compatible 版本中创建一个样本数据库 demodb (使用的是 tickit.db 模型)。
2\. 运行脚本,在 demodb 数据库或 schema 中创建 tickit.db 模型表格:
![29.png](https://dev-media.amazoncloud.cn/c665709c606f4f3cbf9a4a046bd249a1_29.png "29.png")
3\. 从 [Amazon Simple Storage Service](https://aws.amazon.com/cn/s3/?trk=cndc-detail) ([Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail))中加载数据,记录在目标中更改数据捕获(CDC)校验的完成时间,观察集成的活跃程度。
![30.png](https://dev-media.amazoncloud.cn/24de4f80528f4b4a8bfc57186182db4b_30.png "30.png")
通过 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 加载数据会有一些常见错误,如下:
1. 对于最新版本的 Aurora MySQL 集群,我们需要在数据库集群参数组中设置 Amazon_default_s3\_role 参数,这是针对有 [Amazon S3](https://aws.amazon.com/cn/s3/?trk=cndc-detail) 必要访问权的 ARN 的。
![28.jpg](https://dev-media.amazoncloud.cn/cac1ff870c1249b782d81beb7c5b385b_28.jpg "28.jpg")
2. 如果您遇到缺少凭证的错误 (例如,Error 63985 (HY000): S3 API returned error: Missing Credentials: Cannot instantiate S3 Client),那应该就是因为您尚未将 IAM 角色与集群关联。在这种情况下,请将所需的 IAM 角色添加到源 Aurora MySQL 集群中。
![31.jpg](https://dev-media.amazoncloud.cn/b8f8c9a1146c4f9bb889940211b84a11_31.jpg "31.jpg")
##### **分析目标中的 TICKIT 数据**
在 Redshift Serverless 仪表板中,使用您配置集成时创建的数据库打开 Query Editor(版本2)作为设置的一部分。使用以下代码来校验种子或 CDC 活动:
```
SELECT * FROM SYS_INTEGRATION_ACTIVITY;
```
![32.png](https://dev-media.amazoncloud.cn/f4faac9bc6a54612bc83b8a9ebca7098_32.png "32.png")
点击下拉菜单,选择集群或工作组,以及通过集成创建的数据库,运行 tickit.db 样本分析查询。
![33.png](https://dev-media.amazoncloud.cn/ad9bd5cd5b8c405b941f9fc3a26dd740_33.png "33.png")
##### **监控**
若需要 zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 集成的相关信息,您可以在 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 中查询以下系统的视图和表格:
* SVV_INTEGRATION(集成) – 提供集成的配置详细信息。
* SYS_INTEGRATION_ACTIVITY(集成\_活动) – 提供已完成的集成运行的相关信息。
* SVV_INTEGRATION_TABLE_STATE (集成\_表格\_状态)– 描述集成中每一个表格的状态。
若需查看在 [Amazon CloudWatch](https://aws.amazon.com/cn/cloudwatch/?trk=cndc-detail) 中发布的与集成相关的指标,导航至 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 控制台,从左边的导航条中选择 Zero-ETL 集成,然后点击集成链接,即可显示活动指标。
![34.png](https://dev-media.amazoncloud.cn/74d1754df022456aa278935b199a664e_34.png "34.png")
在 Redshift 控制台中可用的指标是集成指标和表格数据,表格数据包含有从 Aurora MySQL 复制到 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的所有表格的详细信息。
![35.png](https://dev-media.amazoncloud.cn/08dc0fb07a404e7789de3f26f13d913b_35.png "35.png")
集成指标包含有表格复制成功和失败的次数,以及延迟的详细信息:
![36.png](https://dev-media.amazoncloud.cn/8e4124c6aed646b7ae4dcd68c46ec46b_36.png "36.png")
##### **清理**
在删除 zero-ETL 集成功能时,Aurora 会从 Aurora 集群中将其删除。交易数据不会从 Aurora 或 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 中被删除,但 Aurora 也不会再向 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 传输新的数据。
删除 zero-ETL 集成需要完成如下步骤:
1. 在 [Amazon RDS](https://aws.amazon.com/cn/rds/?trk=cndc-detail) 控制台中从导航条选择 Zero-ETL integrations(Zero-ETL 集成)。
2. 选择需要删除的 zero-ETL 集成,然后选择Delete(删除)。
3. 确认删除,选择 Delete(删除)。
![37.jpg](https://dev-media.amazoncloud.cn/b4ac5a50544a41eb8ff1924b8c819e4f_37.jpg "37.jpg")
##### **结论**
本文着重介绍的是如何从 [Amazon Aurora](https://aws.amazon.com/cn/rds/aurora/?trk=cndc-detail) MySQL-Compatible Edition(兼容版)到 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 设置 Aurora zero-ETL 集成,此举可最大程度地减少复杂数据管道的维护工作,同时还能对交易数据和事务型数据进行近乎实时的分析。欲了解更多 zero-ETL 与 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 集成的相关信息,请浏览 Aurora 和 [Amazon Redshift](https://aws.amazon.com/cn/redshift/?trk=cndc-detail) 的相关文档。