继此前在2023年7月微软方面签署自愿协议,承诺每年定期公布人工智能(AI)透明度报告,以及建立负责任的人工智能系统,并让其健康、安全发展后。日前微软方面发布了首份人工智能透明度报告《负责任的人工智能透明度报告》(以下简称为《报告》),概述了2023年其在安全部署人工智能产品方面取得的成就。
对此微软方面表示,“我们相信,我们有义务与公众分享我们负责任的人工智能实践,这份报告使我们能够记录和分享我们成熟的实践,反思我们所学到的知识,制定我们的目标,让自己承担责任,并赢得公众的信任……当我们设计、构建和发布人工智能产品时,六大价值观——透明度、问责制、公平、包容性、可靠性和安全性以及隐私——仍然是我们的基础,并指导我们每天的工作”。
在这份《报告》中显示,2023年99%的微软员工已完成了强制性、负责任的人工智能培训。同时微软方面还扩充了人工智能相关工作团队规模,并要求开发团队在人工智能应用程序开发周期内进行全面的风险评估。
据了解,微软方面已经实施了一个全面的框架来映射、衡量和管理与生成人工智能模型和应用程序相关的风险,包括发现漏洞的人工智能红队、评估风险和缓解有效性的指标以及多层保障措施等。
据微软方面透露,其正在积极扩展红队工作范围,包括组建一支专门针对AI模型安全漏洞进行内部测试的红队,以及推出一个允许第三方在新模型发布前进行测试的应用程序。
《报告》中指出,人工智能的敏感用例(例如可能影响个人权利或造成伤害的用例)将接受微软敏感用途计划的额外审查。为了满足客户的需求,2023年微软方面已创建了30个负责任的AI工具,同时该公司还承诺保护客户免受因使用其生成人工智能产品而引起的版权侵权索赔。
据微软方面透露,其已在旗下图像生成平台中添加了内容凭证功能,即该平台在生成图像的同时,也会为该图像添加水印,将其标记为由人工智能模型制作,以便溯源。同时,AzureAI客户还可以通过使用检测仇恨、性和自残等问题内容的工具,以及评估安全风险的工具,评估生成内容的可用性。
对此,微软首席人工智能官娜塔莎·克兰普顿(NatashaCrampton)表示,该公司明白AI仍是一项正在进行的工作,负责任的AI也是如此。“负责任的人工智能没有终点线,所以我们永远不会考虑我们在自愿人工智能承诺下的工作。但自签署以来我们已经取得了巨大进展,并期待今年继续保持我们的势头”。
TAG:潮流 | 资讯 | 微软 | 微软AI透明度报告 | 微软最新消息 | 微软简介 | 负责任的人工智能透明度报告
文章链接:https://www.lk86.com/zixun/164087.html