生成式人工智能产品大规模应用的七个启示

描述

尽管微软在构建人工智能应用方面早已制定了一系列原则和流程,以尽最大可能减少意外伤害并为用户提供他们所期望的体验。但是,生成式人工智能产品的大规模应用,无疑也带来了前所未有的新挑战与新机遇。

因此,微软发布了首份年度《负责任的人工智能透明度报告》,旨在帮助公众理解微软是如何推进负责任的人工智能(RAI)实践的。微软还在 Azure AI 中推出了新的工具供企业客户和开发人员使用,以帮助保障其人工智能产品的输出质量,并防范系统被恶意或意外使用。

这是对新兴技术和保障措施进行大规模压力测试的重要一年。领导团队定义和管理微软实现 RAI 方法的 Natasha Crampton,以及负责在微软整个产品组合中推动 RAI 实施的 Sarah Bird 分享了她们的几点心得。

 01 让RAI成为基础

而不是亡羊补牢

RAI 从来不是某个团队或某位专家的任务,而是微软全体员工的责任。例如,每一位参与开发生成式人工智能应用的员工都必须遵守公司的 “负责任的人工智能标准”(Responsible AI Standard)。该标准详细列出了人工智能产品开发的要求,包括评估新人工智能应用可能带来的影响、制定计划以应对可能出现的未知问题、及时确认必要的限制或变更措施等,以确保客户、合作伙伴以及人工智能应用的使用者能够做出明智的选择。

微软还在强制性培训方面进行了投资,希望提升全体员工对负责任地使用人工智能的意识和理解。截至2023年底,99%的员工已经完成了相关培训。

Natasha Crampton 说:“我们不能将 RAI 当成产品发货前的‘检查清单’。我们需要从一开始就将其融入到产品的制造过程中,并确保公司的每个人从一开始就考虑 RAI 问题。”

 02 做好快速发展的准备

人工智能产品的开发是动态的。为了广泛地推广生成式人工智能,我们必须快速整合来自众多试点项目的用户反馈,并持续与用户保持互动——这不仅可以了解随着新技术被更多人采用而出现的问题,还能探索如何提升用户体验,使产品更具吸引力。

正是通过这一过程,微软决定提供不同的对话样式——更有创造力、更平衡或更精确的模式——作为 Bing 搜索引擎 Copilot 的一部分。

Sarah Bird 强调:“我们需要共同进行一个实验周期,来尝试多种可能性。同时通过这一过程,汲取宝贵的经验,并据此对产品进行相应的优化、调整。”

 03 集中发展从而更快实现规模化

随着 Microsoft Copilot 的推出,微软开始将人工智能技术整合至旗下所有产品中,所以公司需要构建一个更加集中化的系统来确保所有发布的产品均达到统一的高标准。为此,微软正在 Azure AI 中开发一个 RAI 技术栈,以便团队能够依靠统一的工具和流程。

此外,微软 RAI 专家团队还开创了一套新的管理方法,用以集中管理产品发布的评估和审批过程。依据“共识驱动框架”,该团队在技术栈的每个层面,以及产品发布的前、中、后阶段,都会审查产品团队在识别、评估和管理生成式人工智能可能带来的风险时所采取的措施。同时,团队也会考虑测试、威胁建模和“Red Teaming”(一种通过尝试破坏或规避安全功能来对新的生成式人工智能技术进行压力测试的方法)中收集的数据。

通过集中化的审查流程,微软能够更有效地发现并减少产品组合中的潜在安全漏洞,制定最佳实践策略,并确保与公司内部以及微软外部的客户和开发者的信息能够得到及时共享。

Sarah Bird 说:“技术发展日新月异。我们必须真正集中精力一蹴即至,然后最大限度地利用这些经验教训。”

 04 为人们明确信息来源

人工智能技术在创建逼真的合成视频、音频和图像方面的能力日益精进,因此用户能够识别出人工智能生成内容的出处和来源就变得尤为关键。

今年2月,微软联合19家企业签署了一系列自愿性承诺,旨在在2024年美国大选期间打击人工智能的欺诈性使用以及潜在的 deepfakes 技术的滥用。承诺内容包括开发功能以阻止创建误导公众的虚假图像,嵌入元数据以追溯图像的来源,并为候选人提供一种机制,使他们能够举报自己被 deepfakes 技术伪造的图像。

微软已经开发并部署了媒体来源功能(又称“内容凭证”),允许用户验证图片或视频是否由人工智能生成。这一功能使用加密技术对人工智能生成的内容进行了标记和签名,并附上了关于其来源和历史的元数据,遵循了2021年创立的内容来源和真实性联盟(C2PA)制定的开放技术标准。微软 AI for Good 实验室也在加大力度识别深度伪造内容、追踪不良行为者并分析其策略。

Natasha Crampton 表示:“这些问题不仅是科技公司所面临的挑战,更是需要整个社会共同应对的挑战。”

 05 将RAI工具交到客户手中

为了提高人工智能模型的输出质量,并防止生成式人工智能系统遭到滥用,微软正在积极向客户提供自身所采用的工具和安全措施,以便他们能够负责任地构建人工智能。这些资源包括开源工具、商业工具和服务,以及一系列协助企业构建、评估、部署和管理他们生成式人工智能系统的模板和指南。

2023年,微软推出了 Azure AI Content Safety,帮助客户识别并过滤掉人工智能模型中有害的输出,如仇恨、暴力、性或自残等内容。最近,Azure AI Studio 中还添加了新的工具(这些工具即将或已经可以使用),旨在帮助开发者和客户提高他们自己生成式人工智能系统的安全性和可靠性。这些新工具包括允许客户对其应用程序进行安全评估的功能,帮助开发者快速识别和解决漏洞,执行额外的风险和安全监控,并检测模型产生“幻觉”、生成虚假或虚构数据的情况。

Sarah Bird 表示:“关键在于,我们希望安全性能成为默认选项。”

 06 预见并防范破坏行为

人工智能技术的越来越复杂,或许不可避免会有人试图以各种方式挑战系统,进行一些无害或恶意的“越狱”操作。在科技领域,“越狱”指的是绕过人工智能系统中的安全机制的行为。

除了在新产品发布前探测漏洞,微软还与客户合作,为其提供最新工具以保护客户在 Azure 上的自定义 AI 应用。例如,微软推出的新模型可以通过模式识别检测并阻止恶意“越狱”,从而保护了大语言模型和用户交互的完整性,并防止恶意指令控制或攻击 AI 系统。

Natasha Crampton 指出:“这些用途显然不是我们设计系统时的初衷,但随着技术的边界不断向前推进,这就会自然发生。”

 07 帮助用户了解人工智能的局限性

尽管人工智能给我们的生活带来了诸多便利,但它并非完美无缺。微软鼓励用户验证AI系统提供的信息,并在聊天输出结果的末尾提供了引用来源链接,以增强透明度。

自2019年以来,微软一直都有发布“透明度说明”,为客户提供关于 AI 功能、限制、用途及负责任使用的详细信息。公司还在面向消费者的产品(如 Copilot)中加入了用户友好型通知,围绕风险识别、人工智能报错或生成意外内容的可能性等主题提供重要披露,并提醒人们他们正在与人工智能进行交互。

随着生成式人工智能技术及其用途的不断扩展,持续改进系统、适应新法规、更新流程并努力创造符合用户需求的人工智能体验,将尤为重要。

“我们必须保持谦逊,认识到我们对新技术的应用方式尚不明确,因此,我们需要倾听用户的声音,” Sarah Bird 说,“我们必须不断创新、学习和倾听。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分