干货分享!基于 Github Action 的 taosX CI 搭建

数据库
前端开发
编程语言
0
0
去年随着 [3.1.1.0 版本的发布](https://www.taosdata.com/tdengine-engineering/21552.html),TDengine 数据接入工具 taosX 正式推出。该工具具备强大的数据抓取、清洗、转换及加载(ETL)功能。它不仅能无缝对接物联网中的 MQTT 协议,更重要的是能够连接到工业数据源如 OPC-UA、OPC-DA、PI System 等。借助这一模块,工业场景中常用的 SCADA、DCS 等系统无需编写任何代码,仅需通过简单配置即可实现数据的实时、持续导入至 TDengine。 此外,该工具支持在 BI 和可视化工具中展示数据,实现远程监控、实时报警和可预测性维护等功能。用户还可以通过微信小程序直接查看设备的运行状态和生成报表。因此,taosX 不仅提升了企业的操作效率,还大幅简化了数据管理流程,助力企业更专注于核心业务的创新与发展,自推出以来,便获得了众多企业客户的关注。 在本篇文章中,我们将深入探讨 taosX 在持续集成(CI)流程优化以及其具体应用场景中的实践。在本次 CI 流程优化后,taosX 的工程质量得到了大幅提升,助力企业能够更有效地利用其数据资源。 # 使用 GitHub Action 优化现有 CI 流程 在优化之前,taosX 的 CI 流程是基于 Jenkins 构建的。具体来说,当 taosX/Explorer 的 main/3.0 分支有代码合并时,通过在 GitHub 仓库中配置的 webhook 自动触发编译和部署的 Jenkins 作业。该作业完成后,根据 Jenkins 作业之间配置的依赖关系,可以自动或手动触发自动化测试用例的执行作业。测试用例是通过 pytest 工具驱动的,执行完毕后会生成 Allure 测试报告。这一流程确保了代码变更的连续集成和质量控制。 为解决 CI 流程触发滞后性等问题,TDengine 研发团队决定采用 Github 提供的 CI/CD 解决方案 [Github Action](https://github.com/features/actions) 对 taosX 的 CI 流程进行优化。 在使用 Github Action 需要确定 workflow 中任务执行所使用的 runner。所谓 runner 就是可以运行 Github Action 中的任务的机器。在 runner 中可以执行仓库 clone,软件的安装等任务。Github 默认提供了 runner 来执行 Action 中的任务,这些 runner 其实是 Github 安装好的虚拟机,这些 runner 也被称为 [Github-hosted runner](https://docs.github.com/en/actions/using-github-hosted-runners/about-github-hosted-runners/about-github-hosted-runners)。有 Github 提供的机器,相对的也可以用用户自己的机器来运行 workflow。这些机器作为 runner 时被称为 [Self-hosted runner](https://docs.github.com/en/actions/hosting-your-own-runners/managing-self-hosted-runners/about-self-hosted-runners)。在使用 Github-hosted runner 的时候无法自定义硬件资源(比如 cpu 核数,内存等)。而 Self-hosted runner 则可以控制硬件资源,操作系统以及安装的各个软件。 在 taosx 运行的过程中由于需要加快 CI 流程的运行,需要一个硬件配置较高的设备(taosx 在编译的时候耗时较长,实际测试中发现如果使用 2c4g 的虚拟机进行编译的话耗时在 20 分钟左右,而使用 40c256g 的物理机编译时,耗时在 3 分钟左右)。在执行端到端测试的时候可以提前将测试代码 clone 到一个固定位置,每次只需要 git pull 进行更新,这样也会节省代码拉取的时间。鉴于以上因素,在执行 taosx CI 的是时候选用了 Self-hosted runner。 注意:Self-hosted runner 并不局限在物理机或虚拟机上,可以是一个容器,也可以部署到云端。 Github-hosted runner 与 Self-hosted runner 的详细区别见 [Differences between GitHub-hosted and self-hosted runners](https://docs.github.com/en/actions/hosting-your-own-runners/managing-self-hosted-runners/about-self-hosted-runners#differences-between-github-hosted-and-self-hosted-runners)。 在确定使用 Self-hosted runner 之后,就需要对现有的流程所使用的 workflow 文件进行编排,taosX CI 完整的 workflow 主要包含以下环节: ![1.png](https://dev-media.amazoncloud.cn/0b0815b508c04b51b60b06efae515b99_1.png "1.png") 此流程是通过编写 YAML 格式的 workflow 文件来定义的,该文件需要放在 taosX 代码仓库的.github/workflows目录下。其定义分为以下几个部分: ``` # 名称 name: PR-QA-workflow # 触发方式 on: workflow_dispatch: pull_request: # 全局变量 env: RELEASE_HOST: 192.168.1.45 RUSTFLAGS: "-C instrument-coverage --cfg tokio_unstable" ARTIFACT_BASE_DIR: /data/artifacts COVERAGE_BASE_DIR: /data/coverage DIR_PATH: \${{ github.event.number }} RUN_UNIT_TEST_FILE_FLAG: /etc/taos/taosx_run_unit_test # 具体的job jobs: build_rust: ... build_go: ... ``` 下文将按照 workflow 的顺序,对每个环节进行逐一介绍。 ## 1. 触发 用于触发 workflow 的配置如下: ```on: workflow_dispatch: pull_request: ``` 说明: - on.workflow_dispatch:表示该 workflow 可以手动触发,不过 GitHub 限制该 workflow 必须位于默认分支上才可以手动触发,并且也只会在默认分支上生效。 - on.pull_request:表示当提交 PR 的时候对当前分支(PR 的源分支)触发。 关于触发事件的完整描述可参考:[Events that trigger workflows](https://docs.github.com/en/actions/using-workflows/events-that-trigger-workflows) ## 2. 全局环境变量 在 workflow 中,我们设置了一些全局的环境变量,以供 workflow 中的 job 使用,具体如下所示: ```env: RELEASE_HOST: 192.168.1.45 RUSTFLAGS: "-C instrument-coverage --cfg tokio_unstable" # rust 用于获取覆盖率的编译用环境变量 ARTIFACT_BASE_DIR: /data/artifacts # 编译之后编译中间文件及可执行文件存放的根目录 COVERAGE_BASE_DIR: /data/coverage # 生成报告后报告存放的根目录 DIR_PATH_3_0: "3.0" # 下一级使用 3.0 或 PR Number DIR_PATH: \${{ github.event.number }} # 下一级使用 3.0 或 PR Number RUN_UNIT_TEST_FILE_FLAG: /etc/taos/taosx_run_unit_test ``` ## 3. 编译 1. 在编译过程中,taosx、taosx-agent、opc 以及 mqtt 各个组件需要设置特定的环境变量,以便输出插桩程序。由于这些组件在编译过程中没有相互依赖,因此设置了三个可以并行执行的任务,分别负责各自组件的编译工作。 ``` build_rust: runs-on: [self-hosted, linux, x64, qa, rust] build_go: runs-on: [self-hosted, linux, x64, qa, go] build_java: runs-on: [self-hosted, linux, x64, qa, java] ``` 三个编译任务—Rust编译、Go编译、Java编译—之间不存在依赖关系,且各自在不同的机器上运行。因此,这三个任务可以同时并行执行。 2. 在 taosx 及 taox-agent 编译和单元测试执行完成之后,需要将编译过程中产生的中间文件及可执行程序拷贝至特定目录,用以留存和区分。 ``` - name: Copy files run: | ls \$ARTIFACT_BASE_DIR/\$DIR_PATH/bin || mkdir -p \$ARTIFACT_BASE_DIR/\$DIR_PATH/bin cp ./target/debug/taosx-build/debug/taosx ./target/debug/taosx-agent-build/debug/taosx-agent \$ARTIFACT_BASE_DIR/\$DIR_PATH/bin/ cp -r ./target/debug/taosx-profraw/ \$ARTIFACT_BASE_DIR/\$DIR_PATH/ cp -r ./target/debug/taosx-agent-profraw/ \$ARTIFACT_BASE_DIR/\$DIR_PATH/ cd .. tar --exclude=./taosx/target/* -zcvf taosx.tar.gz ./taosx cp taosx.tar.gz \$ARTIFACT_BASE_DIR/\$DIR_PATH/ rm taosx.tar.gz tar -xzf \$ARTIFACT_BASE_DIR/\$DIR_PATH/taosx.tar.gz -C \$ARTIFACT_BASE_DIR/\$DIR_PATH/ rm \$ARTIFACT_BASE_DIR/\$DIR_PATH/taosx.tar.gz ``` ## 4. 单元测试 目前运行了 taosx、opc、mqtt 三个组件的单元测试,单元测试的运行与编译处于同一阶段。 1. 前期由于单元测试可能存在不稳定,或者单元测试耗时较长等问题的存在,添加了依据 /etc/taos/taosx_run_unit_test 该文件是否存在执行单元测试的逻辑。若该文件存在,则执行。 2. taosx 编译及运行单元测试的配置如下: ``` - name: Build taosx run: | # build taosx and taosx-agent # export RUSTFLAGS="-C instrument-coverage --cfg tokio_unstable" rm -rf ./target/debug/taosx-profraw/ export LLVM_PROFILE_FILE="./target/debug/taosx-profraw/taosx-%p-%m.profraw" cargo build --target-dir ./target/debug/taosx-build/ - name: taosx unit test continue-on-error: true run: | if [ -f "\$RUN_UNIT_TEST_FILE_FLAG" ]; then echo "run taosx unit test" cargo llvm-cov nextest --workspace cargo llvm-cov report --lcov --output-path \$ARTIFACT_BASE_DIR/\$DIR_PATH/taosx-unit-test-lcov.info fi ``` taosx 运行完单元测试之后,会输出单元测试覆盖率报告到 \$ARTIFACT_BASE_DIR/\$DIR_PATH/,用于之后与端到端测试的覆盖率结果进行合并。 3. MQTT 编译机运行单元测试的配置如下: ```- name: Build mqtt run: | cd plugins/mqtt go build -cover -o taosx-mqtt - name: Run Mqtt Unit Test continue-on-error: true run: | cd plugins/mqtt if [ -f "\$RUN_UNIT_TEST_FILE_FLAG" ]; then echo "run mqtt unit test" go test -coverpkg=./... -coverprofile=mqtt_unit_report.txt -timeout=5s ./... fi - name: Copy MQTT Files run: | cd plugins/mqtt if [ -f "mqtt_unit_report.txt" ]; then ssh root@\$RELEASE_HOST "ls \$ARTIFACT_BASE_DIR/\$DIR_PATH/go_cover/mqtt_cover_data/ || mkdir -p \$ARTIFACT_BASE_DIR/\$DIR_PATH/go_cover/mqtt_cover_data/" scp mqtt_unit_report.txt root@\$RELEASE_HOST:\$ARTIFACT_BASE_DIR/\$DIR_PATH/go_cover/mqtt_cover_data/ rm mqtt_unit_report.txt fi ssh root@\$RELEASE_HOST "ls \$ARTIFACT_BASE_DIR/\$DIR_PATH/bin/mqtt || mkdir -p \$ARTIFACT_BASE_DIR/\$DIR_PATH/bin/mqtt/" scp taosx-mqtt root@\$RELEASE_HOST:\$ARTIFACT_BASE_DIR/\$DIR_PATH/bin/mqtt/ ``` 同样,MQTT 的单元测试报告在单元测试完成之后会输出,并拷贝到 \$ARTIFACT_BASE_DIR/\$DIR_PATH/go_cover/mqtt_cover_data/,用于之后与端到端测试覆盖率报告合并。 ## 5. 部署 1. 在部署过程中,需要进行两次部署操作。首先是为 MQTT 用例的执行进行部署。在这一阶段,由于 taosx 或 taosx-agent 需要以子进程的形式启动 taosx-mqtt,因此在运行 MQTT 用例时,必须配置相应的环境变量。如下: ```steps: - name: Deploy taosx run: | pwd ls \${{ github.workspace }} # run taosx ssh root@\$RELEASE_HOST "ls \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/go_cover/mqtt_cover_data/ || mkdir -p \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/go_cover/mqtt_cover_data/" ssh root@\$RELEASE_HOST "nohup sh -c 'DATABASE_URL=/var/lib/taos/taosx/taosx.db LLVM_PROFILE_FILE=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/taosx-profraw/taosx-%p-%m.profraw GOCOVERDIR=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/go_cover/mqtt_cover_data/ PLUGINS_HOME=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/ ENABLE_COVERAGE=true nohup \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/taosx serve > \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/taosx.log 2>&1 &'" - name: Deploy taosx-agent run: | pwd ls \${{ github.workspace }} # run taosx-agent ssh root@\$RELEASE_HOST "nohup sh -c 'GOCOVERDIR=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/go_cover/mqtt_cover_data/ PLUGINS_HOME=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/ ENABLE_COVERAGE=true LLVM_PROFILE_FILE=\$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/taosx-agent-profraw/taosx-agent-%p-%m.profraw nohup \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/taosx-agent > \$ARTIFACT_BASE_DIR/\$DIR_PATH_3_0/bin/taosx-agent.log 2>&1 &'" ``` 2. 第二次部署与第一次部署大体相同,区别是 GOCOVERDIR 的赋值会修改为 OPC 准备的目录。 ``` GOCOVERDIR=\$ARTIFACT_BASE_DIR/\$DIR_PATH/go_cover/opc_cover_data ``` ## 6. 端到端测试 1. 在部署完成之后,就可以执行端到端的测试。由于第一次部署设置的是 MQTT 的覆盖率文件的路径,所以第一次运行的测试也是 MQTT 的用例。 2. 端到端测试的代码已经存放至 /data/github/TestNG_taosX,每次执行之前只需要使用 git pull 更新代码即可。 3. 在执行完端到端测试之后应该停止 taosx 及 taosx-agent 用于获取 taosx 及 agent 的覆盖率信息。此时需要通过 kill -2 关闭,这样能够发送 SIGINT 信号给指定的进程,使得进程能够优雅退出,不能通过 kill -9 否则无法成功获取覆盖率信息。 4. MQTT 的端到端测试用例的执行配置如下: ``` test_mqtt: runs-on: [self-hosted, linux, x64, qa, rust] needs: deploy_for_mqtt steps: - name: Update Repo run: | # 这里最好是 TestNG_taosx 已经被拉取到一个固定的位置 # 重新登录执行 git pull,因为当前的 git 仓库对应的是 taosx ssh root@\$RELEASE_HOST "cd /data/github/TestNG_taosX && git pull" - name: Run Test run: | ls \$COVERAGE_BASE_DIR/\$DIR_PATH/allure_profile || mkdir -p \$COVERAGE_BASE_DIR/\$DIR_PATH/allure_profile cd /data/github/TestNG_taosX && source ./setenv.sh && poetry install && cd tests && poetry run pytest --alluredir=\$COVERAGE_BASE_DIR/\$DIR_PATH/allure_profile --timeout=300 -m sanity mqtt_test.py - name: Stop taosx-agent & taosx run: | pids=\$(pgrep taosx-agent); if [ -n "\$pids" ]; then for pid in \$pids; do "run kill -9 taosx-agent"; kill -2 "\$pid"; done; fi pids=\$(pgrep taosx); if [ -n "\$pids" ]; then for pid in \$pids; do "run kill -9 taosx"; kill -2 "\$pid"; done; fi - name: Force stop taosx-agent & taosx if: always() run: | pids=\$(pgrep taosx-agent); if [ -n "\$pids" ]; then for pid in \$pids; do "run kill -9 taosx-agent"; kill -9 "\$pid"; done; fi pids=\$(pgrep taosx); if [ -n "\$pids" ]; then for pid in \$pids; do "run kill -9 taosx"; kill -9 "\$pid"; done; fi ``` 5. 执行除 MQTT 之外的用例的 pytest 命令: ``` cd /data/github/TestNG_taosX && source ./setenv.sh && poetry install && cd tests \\ && poetry run pytest --alluredir=\$COVERAGE_BASE_DIR/\$DIR_PATH_3_0/allure_profile \\ --timeout=300 -m sanity -k "not mqtt_test.py" ``` 说明: 1. 执行 poetry install 安装测试依赖 2. 执行 pytest 命令来运行自动化测试,通过-m 参数指定执行带有 sanity 标签的用例 3. 通过 --alluredir 参数指定报告的目录 4. 通过 --timeout 指定每个用例的超时时间,避免出现用例长时间挂起的情况 ## 7. 生成覆盖率报告 Job 的日志截图: ![2.png](https://dev-media.amazoncloud.cn/b72f1bae37b945fd8fccad567bf1a3d2_2.png "2.png") taosX 的覆盖率报告截图: ![3.png](https://dev-media.amazoncloud.cn/5d68cb8ac38745d4ab4637bc53c93751_3.png "3.png") OpenTSDB 的覆盖率报告截图: ![4.png](https://dev-media.amazoncloud.cn/c1f5a3c641b747e78e2c571e8bd5dec1_4.png "4.png") OPC 的覆盖率报告截图: ![5.png](https://dev-media.amazoncloud.cn/43e08b90333a49fcac7f73221c9d3b86_5.png "5.png") ## 8. 生成测试报告 这里的测试报告则是 pytest 运行完成之后,端到端测试的测试报告。测试报告生成的逻辑如下: ```- name: allure report run: | allure generate \$COVERAGE_BASE_DIR/\$DIR_PATH_3_0/allure_profile -o \$COVERAGE_BASE_DIR/\$DIR_PATH_3_0/allure_report/ --clean # 这里会直接输出报告的地址 echo "see report at \$REPORT_BASE_URL/\$DIR_PATH_3_0/allure_report/" ``` Job 的日志如下: ![6.png](https://dev-media.amazoncloud.cn/840ea07e71fe4274aa849fc0f32d9d62_6.png "6.png") 其中的测试报告链接可以直接点击,测试报告如下图所示: ![7.png](https://dev-media.amazoncloud.cn/d658abe88426440992fbdef97ac4a93b_7.png "7.png") # 一个完整的例子 1. 开发者通过提交 PR 触发 CI 运行。 ![8.png](https://dev-media.amazoncloud.cn/8896dd6f11a64d2f889ef034474ea051_8.png "8.png") 2. 通过点击执行的 Action 可以查看执行的结果。 ![9.png](https://dev-media.amazoncloud.cn/fb5516ee035540d9a47755b9b3d92fe7_9.png "9.png") 开发者在查看该 Action 的时候可以在底部看到流程中哪个 Job 的运行是出错了的。 3. 可以通过点击下方的出错的任务查看任务出错的原因。 ![10.png](https://dev-media.amazoncloud.cn/4ed54d400fdd4fb980d4ea95970bc3b0_10.png "10.png") 4. 最后可以通过点击 generate_report 中查看报告的具体结果。 ![11.png](https://dev-media.amazoncloud.cn/848e9fd12d43473fbbc98a458fcff315_11.png "11.png") # 结语 综上所述,我们已经实现了一项自动化功能:每当开发人员在 taosX 仓库提交 Pull Request(PR)时,即自动触发 CI 流程。通过这一流程,开发和测试人员能够利用生成的测试报告和覆盖率报告来评估 PR 中的代码变更。如果你也对 taosX 这一工具感兴趣,欢迎添加小T微信(tdengine)与 TDengine 的解决方案专家进行一对一沟通。我们将提供专业的指导,帮助你更深入地了解和应用 taosX。
目录
亚马逊云科技解决方案 基于行业客户应用场景及技术领域的解决方案
联系亚马逊云科技专家
亚马逊云科技解决方案
基于行业客户应用场景及技术领域的解决方案
联系专家
0
目录
关闭