Select your cookie preferences

We use essential cookies and similar tools that are necessary to provide our site and services. We use performance cookies to collect anonymous statistics, so we can understand how customers use our site and make improvements. Essential cookies cannot be deactivated, but you can choose “Customize” or “Decline” to decline performance cookies.

If you agree, AWS and approved third parties will also use cookies to provide useful site features, remember your preferences, and display relevant content, including relevant advertising. To accept or decline all non-essential cookies, choose “Accept” or “Decline.” To make more detailed choices, choose “Customize.”

推荐
热门
最新
随着互联网和移动互联网的快速发展,用户生成内容(UGC)的数量呈现出爆炸式增长。无论是社交媒体平台、电子商务网站,还是在线视频分享平台,用户生成的文字、图像、视频等内容都在不断增加。这些内容中可能包含有害、违法或不当的信息,对平台的品牌形象、用户体验和社会环境都可能产生负面影响。因此,对用户生成内容进行及时、准确的审核尤为重要。然而,传统的人工审核方式已经难以满足当前内容审核的巨大需求。人工审核不仅成本高昂、效率低下,而且容易受到主观因素的影响,审核质量和一致性难以保证。此外,随着审核内容的多模态化(文字、图像、视频等)和多语种化,人工审核的挑战进一步加大。在这种背景下,生成式人工智能(Generative AI)技术为内容审核带来了全新的解决方案。基于大语言模型和多模态模型的生成式AI技术,可以自动、高效、准确地审核海量的用户生成内容,识别出有害、违规或不当的内容,从而保护平台的健康环境和用户体验。生成式AI在内容审核领域的应用,不仅可以大幅降低审核成本、提高审核效率,而且可以通过模型优化和持续学习,不断提升审核的准确性和一致性。同时,生成式AI技术还可以实现内容审核的自动化和智能化,减轻人工的工作负担,释放更多人力资源投入到其他高价值的工作中。
本文将探讨如何使用亚马逊云科技上提供的生成式AI大模型进行视频以及图像内容审核。本文将使用相同的视频图像审核测试数据集,从审核准确率、误报率、漏报率等多项指标全面评估亚马逊云科技Amazon Bedrock上不同大模型的表现差异,这包括亚马逊自研大模型Nova系列、Anthropic的Claude 3.7 Sonnet模型,对比分析不同模型在色情内容和暴力内容审核场景下的优势,为您选择和构建合适的基于大模型的内容审核解决方案提供洞见与参考。如果您对文本内容审核感兴趣,请参阅Amazon Bedrock上的模型擂台赛:DeepSeek/Nova/Claude谁是最强文本审核AI?
本文将主要介绍在创建 Bedrock 知识库的过程中的三个重要参数。
企业级 RAG 方案必看:Amazon Bedrock 知识库解析策略、分块策略全解析
本文讨论了大型语言模型在获取外部实时信息或执行特定功能时存在局限,Amazon Bedrock 引入工具调用功能来解决这一问题,并介绍如何使用其 API 实现函数调用。
简介Amazon Web Services (AWS) 提供了丰富多样的服务,助您轻松开发机器学习 (ML) 和生成式 AI (Generative AI) 应用。想要充分利用这些资源,不妨了解它们是如何巧妙地组合成生成式 AI 技术栈的,主要包括: 由生成式 AI 赋能的服务,比如 Amazon Q Business 和 Amazon Q Developer,它们通过运用大型语言模型 (Large Language Models, LLMs) 和其他基础模型 (Foundation Models, FMs)来提升您的工作效率。 专为构建生成式 AI 应用而设计的模型和工具,Amazon Bedrock 便是其中之一。 支持构建和训练 AI 模型的底层基础设施,如 Amazon SageMaker AI 以及各类专用硬件。![1741143557230.jpg](https://devmedia.amazoncloud.cn/8a743786f7ce46b5a40350a0955717d1_1741143557230.jpg "1741143557230.jpg")在考虑使用哪种生成式 AI 服务时,通常会对比以下两种服务: Amazon Bedrock![image.png](https://devmedia.amazoncloud.cn/5624bf713bab487c95cd559db7114567_image.png "image.png") 如果您主要需要使用预训练基础模型进行推理,并希望选择最适合您使用场景的基础模型,那么 Amazon Bedrock 是理想选择。Amazon Bedrock 是一项全托管服务,专为构建生成式 AI 应用而设计,支持多种流行的基础模型,包括 Amazon Nova、Amazon Titan、Anthropic Claude、DeepSeekR1、Cohere Command & Embed、AI21 Labs Jurassic、Meta Llama、Mistral AI 和 Stable Diffusion XL。支持的基础模型会定期更新。 通过 Amazon Bedrock Marketplace,您可以发现、测试和使用超过 100 个流行、新兴和专业的基础模型 (FMs),比如目前最火的 DeepSeek 模型。 使用 Amazon Bedrock IDE(作为新版 Amazon SageMaker Unified Studio 的一部分)探索 Amazon Bedrock 模型,并构建使用 Amazon Bedrock 模型和功能的生成式 AI 应用。 Amazon SageMaker AI![image.png](https://devmedia.amazoncloud.cn/85295f74591142f2a18e54e8e79ad49c_image.png "image.png") Amazon SageMaker AI(前身为 Amazon SageMaker)是一项全托管服务,旨在帮助您大规模构建、训练和部署机器学习模型。这包括从头开始构建基础模型,使用Notebooks、调试器、性能分析器、管道和 MLOps 等工具。当您的使用场景需要对基础模型进行广泛的训练、微调和定制时,可以考虑使用 SageMaker AI。它还可以帮助您完成基础模型评估以适应您的使用场景这样可能具有挑战性的任务。 Amazon SageMaker AI 是新一代 Amazon SageMaker 的一部分,是一个统一的数据、分析和 AI 平台。Amazon SageMaker 包括 Amazon SageMaker Unified Studio,提供统一的开发体验,将亚马逊云科技数据、分析、AI 和 ML 服务整合在一起。虽然 Amazon Bedrock 和 Amazon SageMaker AI 都支持开发 ML 和生成式 AI 应用,但它们的用途各不相同。本指南将帮助您了解哪种服务最适合您的需求,包括可以同时使用这两种服务构建生成式 AI 应用的场景。以下是这些服务之间的主要区别的介绍,帮助您快速入门。 Amazon Bedrock 和 SageMaker AI 之间的差异接下来让我们从如下几个方面来探讨和比较 Amazon Bedrock 和 Amazon SageMaker AI 的功能特点。 1 使用场景Amazon Bedrock 和 Amazon SageMaker AI 针对不同的使用场景提供解决方案,具体取决于您的特定需求和资源情况。Amazon BedrockAmazon Bedrock 专为那些希望构建生成式 AI 应用而无需大量投资于自定义模型开发的场景设计。例如,社交媒体平台的内容审核系统可以使用 Amazon Bedrock 的预训练模型自动识别和标记不适当的文本或图像。同样,客户支持聊天机器人可以利用 Amazon Bedrock 的自然语言处理能力来理解并回应用户查询。如果您的机器学习专业知识或资源有限,Amazon Bedrock 可以帮助您无需进行大量的内部开发工作即可快速构建生成式 AI 应用。Amazon SageMaker AISageMaker AI 适合需要定制模型的独特或专业的 AI/ML 需求。它非常适合现成解决方案不足以满足需求,而您需要对模型架构、训练和部署过程进行精细控制的场景。例如,医疗保健公司基于特定生物标记物开发预测患者结果的模型就是使用 SageMaker AI 的理想场景。另一个例子是金融机构根据其独特的数据和风险因素来构建量身定制的欺诈检测系统。此外,SageMaker AI 也适用于研究和开发目的,数据科学家和机器学习工程师可以尝试不同的算法、超参数和模型架构。 2 目标用户Amazon Bedrock 和 Amazon SageMaker AI 根据用户的专业水平和对机器学习与人工智能的了解程度,适合不同的目标用户群体。Amazon BedrockAmazon Bedrock 提供了一种更加便捷直观的方式来将 AI 功能整合到您的项目中。它适合广泛的用户群体,包括开发和业务人员,这些用户在构建和训练机器学习模型方面经验有限,但希望利用 AI 来增强他们的应用程序或工作流程。Amazon SageMaker AISageMaker AI 主要面向具备必要技能和知识的数据科学家、机器学习工程师、和开发人员来构建、训练和部署自定义的机器学习模型。如果您精通数据科学和机器学习概念,并需要一个能够提供工具和灵活性以创建符合特定需求模型的平台,那么 SageMaker AI 是您的理想选择。 3 基础模型选择虽然 Amazon Bedrock 和 Amazon SageMaker AI 都为您的应用提供了广泛的基础模型 (FMs),但这两项服务提供的基础模型集合各有特色。Amazon BedrockAmazon Bedrock 提供对多种基础模型的访问,包括 Anthropic 的 Claude、Meta 的 Llama 3、Amazon 的 Nova 和 Titan 模型、Stability AI 的图像生成模型等。可用的基础模型列表也会经常更新。您还可以通过 Amazon Bedrock Marketplace 快速测试并整合 100 多个公开可用和专有的基础模型。Amazon Bedrock 还提供一些在 Amazon SageMaker JumpStart 中不可用的专有模型,包括 Claude 和 Jurassic 等模型。Amazon SageMaker AIAmazon SageMaker JumpStart 提供内置的公开可用的和专有的基础模型,可以对其自定义并集成到您的生成式 AI 工作流程中,与 Amazon Bedrock 相比,它提供了更广泛的基础模型选择,包括针对特定使用场景优化的模型。JumpStart 提供公开可用的基础模型,包括来自 Hugging Face、StabilityAI、Meta 和 Amazon 的模型,以及来自 AI21 Labs、Cohere 和 LightOn 的专有基础模型。公开可用和专有基础模型的列表会经常更新。值得一提的是,两者都支持 DeepSeek 系列模型的高效部署。 4 定制化Amazon Bedrock 和 Amazon SageMaker AI 提供不同级别的模型定制化能力,您可以根据自己的特定需求和专业知识进行调整。Amazon BedrockAmazon Bedrock 提供来自领先供应商的一系列模型,您可以用它们构建生成式 AI 应用,但定制化选项有限。您可以直接使用 API 调用来使用预训练模型进行推理。虽然这种方法极大简化了将 AI 功能集成到应用程序的过程,但也意味着除非您定制或导入自定义模型,否则对底层模型的控制较少。Amazon Bedrock 的预训练模型针对常见 AI 任务进行了优化,设计用于适应广泛的使用场景,但它们可能不适合高度专业化或小众的需求。 Amazon Bedrock 支持对基础模型 (FMs) 进行微调,如 Amazon Nova Micro、Lite 和 Pro、Cohere Command R、Meta Llama 2、Anthropic Claude 3 Haiku、Amazon Titan Text Lite、Amazon Titan Text Express、Amazon Titan Multimodal Embeddings 以及 Amazon Titan Image Generator。支持的基础模型列表会持续更新。您还可以使用 Bedrock 为特定任务和使用场景对模型进行定制,包括基础模型微调、预训练和模型蒸馏。Amazon SageMaker AIAmazon SageMaker AI 提供广泛的定制化选项,让您全面控制整个机器学习工作流程。使用 SageMaker AI,您可以控制微调模型的各个方面,从数据预处理和特征工程到模型架构和超参数优化等。通过这种级别的定制化,您可以创建高度专业化的模型,专门适应您独特的业务需求。SageMaker AI 支持多种流行的机器学习框架,如 TensorFlow、PyTorch 和 Apache MXNet,让您能够使用自己偏好的工具和库来构建和训练模型。使用 Amazon SageMaker JumpStart 基于预定义的质量和责任标准来评估、比较和选择基础模型。借助 Amazon SageMaker AI Clarify 选择符合业务场景的基础模型。使用 SageMaker AI Clarify 创建模型评估任务,用于评估和比较来自 JumpStart 的基于文本的基础模型的质量和责任指标。 5 定价Amazon Bedrock 和 Amazon SageMaker AI 采用不同的定价模型,反映了它们的目标用户和所提供的服务特点。Amazon BedrockAmazon Bedrock 采用基于 API 调用次数的简单定价模型。您按每次 API 调用支付固定费用,这包括运行预训练模型和任何相关数据处理的成本。这种直观的定价结构使您能够更有效地估算和控制成本,因为您只需为实际使用的服务付费。Amazon Bedrock 的定价模型特别适合工作负载可预测的应用,或者当您希望 AI 相关支出更加透明的情况。Amazon SageMaker AISageMaker AI 提供按使用量付费的定价模型,如机器学习过程中消耗的计算资源、存储和其他服务的使用情况。您需要为用于构建、训练和部署模型的实例付费,价格根据实例类型和大小而有所不同。此外,您还需要承担数据存储、数据传输以及其他相关服务(如数据标注和模型监控)的费用。这种定价模型提供了灵活性,允许您根据特定需求优化成本。然而,这也意味着成本可能会有所变动,可能需要仔细管理,特别是对于资源密集型项目。 6 集成Amazon Bedrock 和 Amazon SageMaker AI 提供了不同的机器学习模型集成方法,以满足您的特定需求和专业知识水平。Amazon BedrockAmazon Bedrock 通过提供可直接通过 API 调用的预训练模型,简化了集成过程。您可以使用 Amazon Bedrock SDK 或 REST API 发送输入数据并从模型接收输出结果,而无需管理底层基础设施。这种方法显著降低了将 AI 功能集成到应用程序的复杂性和所需时间,使机器学习专业知识有限的开发人员也能轻松上手。然而,这种简便的集成是以有限的定制选项为代价的,因为您仅限于使用 Amazon Bedrock 提供的预训练模型和 API。Amazon SageMaker AISageMaker AI 提供了一个全面的平台,用于构建、训练和部署自定义机器学习模型。然而,与 Amazon Bedrock 相比,将这些模型集成到应用程序中需要更多的努力和技术能力。您需要使用 SageMaker AI SDK 或 API 访问训练好的模型,并构建必要的基础设施将其作为端点(endpoints)暴露出来。这个过程涉及创建和配置 API Gateway、Lambda 函数和其他亚马逊云科技服务,以实现应用程序与已部署模型之间的通信。虽然 SageMaker AI 提供了工具和模板来简化这一过程,但它仍然需要服务和机器学习模型部署有更深入的理解。 总结在选择 Amazon Bedrock 和 Amazon SageMaker AI 时,两者并不一定是非此即彼。在某些情况下,结合使用这两种服务可能会带来更大优势。例如,您可以使用 Amazon Bedrock 快速进行原型设计并部署基础模型,然后利用 SageMaker AI 进一步优化模型以提高性能。最终,在 Amazon Bedrock 和 Amazon SageMaker AI 之间的选择取决于您的具体需求。评估这些因素可以帮助您做出明智的决定,选择最适合您需求的服务。有关 Amazon 生成式 AI 服务和解决方案的更多信息,请参阅[生成式 AI 决策指南](https://docs.aws.amazon.com/zh_cn/decisionguides/latest/generativeaionawshowtochoose/guide.html)。
导读B 站对 TiDB 的应用已相当广泛,被应用在了 包括视频观看、一键三连、发送弹幕、撰写评论、阅读漫画以及视频后端的存储等场景, 目前拥有近 100 套集群。本文由 B 站数据库负责人赵月顺撰写, 详细介绍了 B 站面临业务增长选择 TiDB 的原因,以及采用 TiDB 后的部署架构、容灾实现、运维经验和未来规划 。 TiDB 在 B 站的使用场景和部署架构介绍B 站的 TiDB 集群规模已达到 100 多套,计算节点超过 2000 个,存储节点超过 800 个。TiDB 的应用场景非常广泛,包括视频观看、一键三连、发送弹幕、撰写评论、阅读漫画以及视频后端的存储等。![B 站的 TiDB 部署.png](https://devmedia.amazoncloud.cn/04c724e58c674ab892c46b5cb8a4e364_B%20%E7%AB%99%E7%9A%84%20TiDB%20%E9%83%A8%E7%BD%B2.png "B 站的 TiDB 部署.png")B 站的 TiDB 部署采取了存算分离的策略,计算节点被部署在容器中 ,这种做法的优势在于能够充分发挥容器化管理无状态服务达到水平弹性拓展能力,允许根据需求随时对计算节点进行扩展或缩减,整个过程仅需一次服务发版,有效提升了效率与灵活性。 存储节点则继续部署在物理机上 ,这也是 B 站拥有超过 2000 个计算节点和 800 个存储节点的原因。目前,B 站使用的是大约 3T 容量的 NVMe 硬盘。在存算分离架构下,扩容策略分为两种情况:1. 计算节点的扩容 :当计算节点面临性能瓶颈时,B 站会利用云平台的 HPA 功能。通过设定一个阈值,一旦负载达到该阈值,系统便会自动进行水平扩展,确保计算资源能够满足业务需求。2. 存储节点的扩容 :存储节点的扩容主要依赖于运营监控和报警机制。当存储容量接近预设的预警线时,运营团队将收到报警,随后根据实际情况进行评估,并决定是否需要进行扩容,以确保数据存储的安全性和可靠性。 海内外业务技术侧的挑战B 站自 2018 年起大规模采用 TiDB,主要原因是那一年 B 站业务经历的空前增长。用户量每个季度的增幅达到了 70%至 80%,这一增长速度对存储基础设施构成了巨大压力。业务数据量迅速增加,单表记录突破百亿条,每秒查询量(QPS)超过万次,单机存储已无法满足业务增长的需求。当时,线上存在千亿级别的数据表,且数据规模持续扩大。面对如此庞大的数据增长,需要一个有效的解决方案。 B 站使用 TiDB 的理由经过对市场上的数据库存储解决方案的调研, 发现将 MySQL 迁移至 TiDB 的成本相对较低 ,这为 B 站节省了大量成本和资源。同时, B 站对数据强一致性有着严格要求 ,而当时没有中间件解决方案能够同时满足大规模数据增长和 MySQL 兼容性的需求,TiDB 成为了唯一能够满足这些条件的解决方案,为 B 站的业务发展提供了坚实的分布式数据库存储支持。转向 TiDB 后,B 站的单集群存储容量已超过 80TB。具体而言,选择 TiDB 作为数据库的基础支撑主要出于以下考虑:![选择 TiDB 的原因.png](https://devmedia.amazoncloud.cn/8ac0c638a6cf4441b67406fc0f6cdc2b_%E9%80%89%E6%8B%A9%20TiDB%20%E7%9A%84%E5%8E%9F%E5%9B%A0.png "选择 TiDB 的原因.png")1. 兼容性 :鉴于 MySQL 在业务系统中的核心地位,TiDB 与 MySQL 的高度兼容性显得尤为重要。这种兼容性意味着现有的 MySQL 数据库可以较为轻松地迁移至 TiDB,从而降低了迁移风险和成本。同时,这种兼容性也便利了开发人员对 TiDB 的快速适应和使用,无需投入大量时间学习新的数据库操作和语法。2. 存算分离的架构 :相较于传统数据库架构中存储和计算的紧密耦合,TiDB 的架构允许独立扩展存储和计算资源,根据业务需求灵活调整,提升了系统性能和可扩展性,同时简化了运维工作,降低了成本。3. 社区贡献 :TiDB 拥有一个活跃的社区,成员们积极贡献代码、解答问题并进行技术交流。社区提供的详尽文档和教程加速了用户对 TiDB 的了解和掌握,而社区的反馈和建议也推动了 TiDB 的持续改进和优化。4. 可靠性 :TiDB 满足了分布式数据库对数据可靠性的高要求。基于 Raft 协议的 TiDB 能够在节点故障和网络延迟等异常情况下,确保数据的强一致性和可靠性,为业务提供了坚实的支持。 TiDB 在大规模数据容灾场景的优势选择 TiDB 的另外一个重要收获是,在大规模容灾恢复方面,TiDB 因其灵活的架构设计、高可用性以及对多活部署的支持上有着明显的优势。存算分离的架构设计使得计算和存储资源能够灵活地在线扩展或缩减,整个过程对业务开发以及运维人员透明,简化了大规模环境下的资源管理和开发工作将至 0 成本。 TiDB 通过多副本和 MultiRaft 协议确保数据在不同机房、机架和机器间的高可用性,实现快速自愈故障恢复(RTO <= 30s)和数据零丢失(RPO = 0)。此外,TiDB 支持可用区多地多活部署,通过 TiDBbinlog 进行数据同步,增强了跨区域的灾难恢复能力,确保业务连续性和数据强一致性。这些特性共同构成了 TiDB 强大的高可用自愈容灾优势。对于 B 站而言,目前尚未实现两地三中心的布局。2023 年,B 站进行了大规模的降本增效的工作,包括大规模的机房搬迁,从 5 个机房减少到 2 个机房,从而将多中心布局转变为双中心布局。在搬迁过程中,由于 B 站的 TiDB 版本为 4.0,相对陈旧,因此采用了 TiDB 的 TiDBbinlog 专用工具在两个中心之间进行了单向数据同步,实现了基础的高可用能力。![TiDB 在 B 站的使用场景和部署架构.png](https://devmedia.amazoncloud.cn/945408e117c34e3e9e8199f1d1f4a604_TiDB%20%E5%9C%A8%20B%20%E7%AB%99%E7%9A%84%E4%BD%BF%E7%94%A8%E5%9C%BA%E6%99%AF%E5%92%8C%E9%83%A8%E7%BD%B2%E6%9E%B6%E6%9E%84.png "TiDB 在 B 站的使用场景和部署架构.png") B 站 TiDB 运维经验分享在运维大规模的 TiDB 集群过程中,我们也总结了一些值得参考的经验:首先,必须制定关于 TiDB 的分布式数据库使用规范 。尽管 TiDB 功能强大,但依然需要明确的规范和使用限制。这包括明确规定数据备份的时间间隔、存储方式和恢复流程。同时,对数据库访问权限进行严格控制,以防止数据泄露和误操作。其次,对业务需求的支持需结合 TiDB 产品特点以及优势,提供合理的评估和分析。 不能无差别地满足业务部门的所有需求,而应考虑其对数据库性能的影响及是否存在更优的解决方案。例如,面对业务部门提出的数据查询请求,需评估该请求是否会对性能产生负面影响,并探索可能的优化方法。第三,建议坚持使用 TiDB 的官方推荐版本,并慎重考虑二次开发。 一些公司基于 TiDB 进行二次开发,但结果并不理想,特别是在降本增效和人员减少的背景下,他们面临独立版本分支维护复杂以及需求迭代缓慢等困境。因此,建议用户使用官方版本,以便在升级过程中更为顺利。非官方版本在遇到未知 bug 时,可能难以获得官方的有效支持,因为官方难以了解具体的改动情况。最后,推动 TiDB 使用的工具化、自动化和平台化是关键。 随着集群规模的扩大,缺乏这些措施将导致运维工作低效且依赖人工,影响运维效率。通过自动化工具实现数据库的部署、监控和故障恢复,减少人工干预,提高工作效率。平台化的管理方式有助于对多个数据库集群进行统一监控和管理,及时发现并解决问题。 B 站 TiDB 升级 & 人才培养计划B 站的 TiDB 版本目前还属于比较老的版本,但我们有一些升级规划:![升级规划.png](https://devmedia.amazoncloud.cn/b53b939f29734f54b6a54e3592a0b188_%E5%8D%87%E7%BA%A7%E8%A7%84%E5%88%92.png "升级规划.png")如图所示,部分 v6.0 和 v7.0 版本的 TiDB 正在试运行中。由于目前绝大多数集群仍在运行 v4 版本,这一版本已显陈旧,因此在升级过程中存在诸多顾虑。特别是考虑到直接跳过 v5 和 v6 版本升至 v7 可能引发的兼容性问题和潜在风险,所以没有参与官方的升级活动,但已积极开展相关测试。 测试结果表明,从 4.0 版本直接升级至 7.5 版本,并进行 TiDB 同步是可行的 ,接下来的关键步骤是对业务流量进行验证。在人才培养方面,B 站所有 MySQL 方向的 DBA 已全面参与到 TiDB 的学习和运维中。在此过程中,TiDB 社区提供的线上学习资源,以及体系化的课程学习和考试名额,对人才培养起到了积极的推动作用。展望未来,B 站将继续增加对 TiDB 的投入,涵盖技术研发、人才培养和业务拓展等多个方面。随着 TiDB 技术的持续进步,预期将为 B 站的业务发展提供更强有力的支持。
B 站数据库负责人赵月顺:助力海内外业务增长,百套 TiDB 的选型与运维实战
随着电商行业的快速发展,新技术的应用也在不断演进。特别是生成式人工智能(AI)技术,正在被越来越多的电商行业公司作为提升竞争力的关键工具。亚马逊云科技作为生成式AI技术的推动者,在各个行业中不断的推出贴合实际业务场景,易于落地的应用解决方案。电商行业企业对图片检索的需求如相似商品推荐、以图搜图、个性化推荐、自动标签生成、商品合规审核、竞品分析、库存管理等。利用图片检索解决方案可以提升用户体验、增加转化率、优化商品管理与库存并简化运营流程。
今年在拉斯维加斯参加 2024 年的 Amazon Web Services re:Invent 时,我作为一名长期从事分布式数据库研发的工程师,对亚马逊云科技在数据库领域的最新进展和未来方向充满期待。
生成式 AI 正在成为开发者的得力助手,从需求分析到项目设计,从代码实现到测试再到运维,生成式 AI 正在参与软件开发的全生命周期。
定义开发新范式!“码”上开启高效开发之旅
近日,亚马逊云科技推出 Amazon Q Developer 迁移功能(预览版),旨在帮助开发者在集成开发环境(IDE)中将 .NET Framework 应用程序迁移至跨平台的 .NET。
加速迁移!跨平台 .NET 迁移功能上线
加载更多
Center image