生成式 AI 时代的 Responsible AI :科学与实践

云计算
re:Invent
0
0
## 视频 <video src="https://dev-media.amazoncloud.cn/30-LibaiGenerate/31-LiBaiRebrandingVideo/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice-LBrebrandingWCaptionCN.mp4" class="bytemdVideo" controls="controls"></video> ## 导读 生成式 AI 的快速增长带来了有前途的创新,同时也围绕其安全和负责任的开发和使用提出了新挑战。这些挑战包括生成式 AI 之前常见的一些挑战,例如偏见和可解释性,以及生成模型特有的新挑战,包括幻觉、毒性和知识产权保护。在本论坛中,概述生成式 AI 提出的挑战,调查围绕它们的新兴科学,并讨论在亚马逊云科技上进行的动手、负责的 AI 工作。 ## 演讲精华 <font color = "grey">以下是小编为您整理的本次演讲的精华,共1100字,阅读时间大约是6分钟。如果您想进一步了解演讲内容或者观看演讲全文,请观看演讲完整视频或者下面的演讲原文。</font> 视频以亚马逊学者迈克尔·凯恩斯(Michael Kearns)介绍生成模型时代的负责任的人工智能为主题开始。他解释了以拥有超过1750亿参数的大型语言模型(LLM)GPT-3为代表的这些AI系统,为何在主流文化中迅速受到欢迎。凯恩斯从技术层面介绍了LLM的工作原理。给模型一些初始文本提示或上下文,然后计算下一个可能跟随该提示的词的概率分布。通过从这个分布中采样,LLM选择实际添加到文本中的下一个词。模型重复此过程,根据不断增长的内容预测下一个词,以生成自由形式的文本。 通过一个简单的例子,凯恩斯展示了这种只关注下一个标记符的方法如何产生新兴能力,如产生有连贯性、有意义且语法和语义正确的段落。所涉及的随机性也导致了变化——相同的提示每次都可能产生完全不同的输出。凯恩斯强调,仅预测下一个词的技巧使LLM在开放式文本生成方面具有巨大的通用能力。 然而,输入和输出的开放性引发了主要的负责任的人工智能问题。凯恩斯将其与以前的AI时代相比,当时系统会做出狭窄定义的点预测。例如,给定一个贷款申请,预测申请人是否会偿还还是违约。公平性可以通过在所有人口统计中均衡错误率来编码。但对于LLM来说,由于可能输入和输出的无限范围,定义公平性是非常复杂的。 为了说明复杂的公平挑战,凯恩斯提供了代词选择示例。在给定的关于“Hansen博士”的提示下,我们可能希望LLM能平等地使用男女代词。但如果提示指定的是“有胡子的Hansen博士”或“WNBA球员”,我们想要的代词分布就会改变。由于有太多的相关因素和职业,无法通过正式规则预料到它们所有。视频中提到,我们可能需要针对每个职业制定政策。 除了公平性外,凯恩斯还概述了由生成性AI加剧或引入的其他关键问题: 幻视"是一个具有创造力的语言模型,它能够虚构出令人信服的事实。以下是一个视频的例子,该视频通过一系列虚构的研究论文和共同作者展示了这一特性。这是因为这种语言模型是基于其训练数据来生成文本,而非查找真实事实。 在处理具有攻击性但可靠的信息、观点和引用方面,仍然存在不确定性。安全标准在很大程度上取决于受众和使用环境等因素。例如,视频指出,一些可能被认为是由人工智能模型生成的具有攻击性的引用,但如果标明出自某部著名小说,可能在某些成年人环境中是可接受的,但不适合儿童。 此外,人工智能模型还可能通过生成的同义句泄露个人隐私。视频提供了一个例子,说明人工智能模型生成了一个与某人家庭住址非常接近的句子,这可能很容易让人推断出实际的地址。 在使用人工智能模型模仿艺术家的风格或作者的写作方式时,可能会引发关于版权和合理使用方面的意外知识产权问题。视频展示了一个使用图像生成模型来创作"以著名画家的风格"的艺术作品的例子,这可能会构成风格的挪用。 尽管生成式人工智能带来了新的挑战,但正在研究的技术,如数据水印和用于对齐的强化学习,具有很大的潜力。然而,一些问题的解决可能需要调整这些新兴技术的相关法律和政策。 亚马逊云科技负责人工智能责任工作的负责人彼得·哈利南(Peter Hallinan)接着讨论了将研究转化为实践的问题。他指出,[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)与传统软件之间存在关键差异。[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)由数据指定,需要客户进行测试,其性能取决于特定的数据集。在现有的[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)考虑之外,负责任的人工智能还需要考虑额外的属性,如安全性、公平性、可解释性和鲁棒性。 哈利南分享了亚马逊云科技在开发负责任的人工智能系统时遵循的五个高级原则: 1. 定义狭窄的应用使用场景 - 使影响和目标更清晰。 2. 将流程与风险级别相匹配 - 评估潜在损害的可能性程度和严重程度。视频提供了示例,如对于推荐音乐的应用和识别肿瘤的应用,由于风险和后果不同,所需的严谨程度也会有所不同。 3.将数据集视为产品规格,确保其多样性和准确性,同时识别可能引起混淆的因素,并在多个数据集上进行测试。 4.分析不同数据集对模型性能的影响,一个模型可能在某个数据集上有改进,但在另一个数据集上表现不佳。研究表明,随着数据集的发展,模型在某个数据集上的性能可能会提高,而在另一个数据集上的性能可能会降低。 5.供应商与部署者共同承担责任,通过沟通、提供反馈并采取行动来学习。供应商应预测可能的应用场景,而部署者需要对整个系统进行全面端到端的测试。 为了说明明确应用场景重要性,Hallinan以面部识别应用于儿童识别、名人识别和虚拟监考为例进行对比。每种应用都有不同的偏见、影响和目标。在生成性文本方面也是如此——目录文案应注重中立性和清晰度,而说服性广告文案则需要关注特定人群的兴趣。 Hallinan强调,亚马逊云科技将负责任的AI实践融入到整个[机器学习](https://aws.amazon.com/cn/machine-learning/?trk=cndc-detail)生命周期的各个环节,包括问题定义、数据收集、模型开发、测试、监控以及更高级别的责任。他们还提供了培训课程、合作伙伴网络、解决方案架构师以及一个专注于推进负责任AI的内部团队。此外,亚马逊云科技还推出了如CodeWhisperer和Amazon Titan等服务,这些服务在设计时就充分考虑了负责任AI的问题,例如包含权属、内容过滤和安全扫描等功能。 总之,Hallinan强调,致力于发展生成性AI的组织需要通过提高意识、技能培训、采用新兴最佳实践并最终实现运营集成来构建内部能力。负责任AI需要跨职能团队的协作,特别是与负责权衡的产品经理的合作。他还提倡参与制定法规、立法、标准等方面的工作,分享实际经验。 Kearns和Hallinan认为,生成性AI具有巨大潜力,但同时也带来了关于安全性、公平性、隐私和控制等方面的复杂挑战。亚马逊云科技致力于将前沿的负责任AI研究转化为实用的流程、工具和服务。然而,要负责任地开发和部署生成性AI,需要各个团队、公司、学术界、政府和整个社会共同努力,付出辛勤的努力。 **下面是一些演讲现场的精彩瞬间:** Hallinan与他的领导者在亚马逊云科技就负责任的人工智能工作进行了探讨。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_0.png) 领导者强调了一些看似合理的研究论文其实是虚构的,展示了大型语言模型的幻觉能力。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_1.png) 为了设想针对不同受众的内容生成约束,需要在大型语言模型的通用性和用例特异性之间找到平衡。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_2.png) Sundar Pichai认为制定法律和政策框架以应对负责任的人工智能所带来的挑战至关重要。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_3.png) 领导者解释称,ML解决方案是通过数据而非人类语言进行指定的,这与传统软件的关键区别在于这一点。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_4.png) 领导者强调了实施负责任的人工智能实践的重要性,如可控性、监控、隐私、安全、公平性、真实性以及鲁棒性等。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_5.png) 演讲者提供了三个链接,以便观众进一步了解演讲中所讨论的AI创新。 ![](https://d1trpeugzwbig5.cloudfront.net/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice/images/rebranded/AIM220-Responsible_AI_in_the_generative_era__Science_and_practice_6.png) ## 总结 Introduction:" Michael Kearns of Amazon Web Science and Peter Hallinan discuss the responsible use of generative AI in the age of artificial intelligence. Kearns provides an overview of the scientific basis for responsible AI, as well as the new challenges posed by generative AI models like large language models (LLM). Then, Hallin discusses how Amazon Web Science translates this science into practice when developing AI services. Key Points: 1. Generative AI, such as LLM, has immense potential and prospects, but also presents new challenges, such as fairness, privacy, output veracity, and intellectual property issues. It is more difficult to define and enforce constraints compared to open-ended generation. New methods need to be studied to address issues like fairness and privacy. 2. Amazon Web Science adopts a systematic approach to implement responsible AI, including scientific research, translating science into practice, embedding practice into the ML lifecycle, and collaborating with stakeholders. Key practices include strictly defining use cases, risk-based development cycles, treating data sets as product specifications, and sharing responsibility between providers and deployers. 3. Amazon Web Science services, such as CodeWhisper and Amazon TITAN, incorporate investments in responsible AI, such as privacy, security, content filtering, and human oversight. Amazon Web Science also provides tools, partner support, and educational resources to enable customers to build services responsibly. Conclusion: Generative AI offers immense potential, but also presents new challenges in responsible AI. Amazon Web Science is committed to leading the charge in responsible AI through scientific research, carefully considered practice, and stakeholder participation. Amazon Web Science's services demonstrate this commitment. Customers must also take responsibility, assess risks, define appropriate use cases, and limitations, and participate in policy discussions. ## 演讲原文 ## 想了解更多精彩完整内容吗?立即访问re:Invent 官网中文网站! [2023亚马逊云科技re:Invent全球大会 - 官方网站](https://webinar.amazoncloud.cn/reInvent2023/?s=8739&smid=19458 "2023亚马逊云科技re:Invent全球大会 - 官方网站") [点击此处](https://aws.amazon.com/cn/new/?trk=6dd7cc20-6afa-4abf-9359-2d6976ff9600&trk=cndc-detail "点击此处"),一键获取亚马逊云科技全球最新产品/服务资讯! [点击此处](https://www.amazonaws.cn/new/?trk=2ab098aa-0793-48b1-85e6-a9d261bd8cd4&trk=cndc-detail "点击此处"),一键获取亚马逊云科技中国区最新产品/服务资讯! ## 即刻注册亚马逊云科技账户,开启云端之旅! [【免费】亚马逊云科技“100 余种核心云服务产品免费试用”](https://aws.amazon.com/cn/campaigns/freecenter/?trk=f079813d-3a13-4a50-b67b-e31d930f36a4&sc_channel=el&trk=cndc-detail "【免费】亚马逊云科技“100 余种核心云服务产品免费试用“") [【免费】亚马逊云科技中国区“40 余种核心云服务产品免费试用”](https://www.amazonaws.cn/campaign/CloudService/?trk=2cdb6245-f491-42bc-b931-c1693fe92be1&sc_channel=el&trk=cndc-detail "【免费】亚马逊云科技中国区“40 余种核心云服务产品免费试用“")
目录
亚马逊云科技解决方案 基于行业客户应用场景及技术领域的解决方案
联系亚马逊云科技专家
亚马逊云科技解决方案
基于行业客户应用场景及技术领域的解决方案
联系专家
0
目录
关闭