行业动态

2580138999

手机智能蓝牙Mpos专家

如何建立负责任的人工智能?研究员建议设立发现AI偏见奖金

近期支付通Qpos官网注意到:人工智能(AI)可以模仿并强化人类决策,同时也会放大人类的歧视和偏见。举个例子,如果你生活在一个“男主外、女主内”的社会,那么你可能会天然地认为女人就该操持家务。AI也一样,不过它“认识世界”的途径、也就是偏见和歧视的来源,是用于训练人工智能的数据库。关于性别的偏见不仅在数据库里,可能还在商业开发模型中,这样的偏见会随着AI的广泛应用而不断放大。

为了解决类似的问题,建立可以消除偏见和歧视的负责任AI,来自谷歌大脑、英特尔、OpenAI以及美国、欧洲顶级研究实验室的研究人员联合写了一篇论文,探讨了将AI伦理原则付诸实践的各种机制。

这篇题名为《迈向值得信赖的人工智能发展:支持可验证索赔的机制》(Toward Trustworthy AI Development:Mechanisms for Supporting Verifiable Claims)4月15日发表在预印本网站arxiv上。

研究员探讨了十种能将AI伦理道德原则付诸实践的机制,包括向开发人员提供奖励,以发现AI中的偏见,这一点类似安全软件中提供的漏洞奖金。

论文认为,随着人工智能的发展,人们越来越意识到AI系统带来的大规模影响,并认识到行业和学术界现有的法规和规范不足以确保开发负责任的AI。为了使AI开发人员赢得系统用户,客户,社会,政府和其他利益相关者的信任,开发者正在负责任地构建AI,他们需要提出可验证的机制并追究责任。特定组织外部人员还需要有效的手段来审查此类声明。论文提出了不同的利益相关者可以采取的各种步骤,以改善AI系统的安全性,公平性和隐私保护。

论文提到的机制之一是向开发人员提供奖金。“偏见和安全问题赏金的概念扩展到了AI,并且可以补充现有的工作,我们可以更好地记录数据集、模型的性能限制和其他属性。我们将重点放在发现AI系统中的偏见和安全问题上,并以此为分析和实验起点,但需要注意的是,这并不是全部,我们还可以探索其他内容,例如安全、隐私保护和可解释性等。”研究人员在论文中称。

论文合著者之一JB Rubinovitz于2018年首次提出了AI偏见赏金的想法。目前,谷歌表示已向安全漏洞发现者支付了2100万美元,而像HackerOne和Bugcrowd这样的漏洞赏金平台最近几个月也筹集到了资金。

除了提供发现偏见和安全漏洞赏金外,论文还建议成立红队(red-teaming)。“红队”是什么概念?它是一个通过反对组织的观点来帮助组织改善自身的团队,它们通常可以有效帮助组织克服文化偏见并扩大其解决问题的能力。

美国国防先进研究计划署(DARPA)前署长里贾纳·杜甘(Regina Dugan)也曾提倡红队训练,以应对AI系统中的道德挑战。红队训练在公司内部已有应用案例。由谷歌AI道德研究人员领导的团队发布了一个供组织内部使用的框架,以弥合AI道德问责制鸿沟。

论文还提出了以下建议:独立的第三方审计和政府政策结合,可以建立监管市场,监管AI和其他技术;在开发者、研究人员社区中共享AI事件,如果有可能可以创建集中的事件数据库;建立审核、跟踪系统,从而在AI开发过程中确保安全,并能获取全程信息;提供商业AI系统的开源替代方案,并加强对商业AI模型的审查;增加政府对学术界研究人员的资助,以验证硬件性能要求;支持近年来开发的以隐私为中心的机器学习技术,例如联合学习、差分隐私和加密计算等。

近年来,包括OpenAI,谷歌甚至美国军方在内的80多个组织已经起草了AI伦理原则,但是本文的作者断言AI伦理原则“只是确保从AI中获得有益社会成果的第一步。”

“随着人工智能(AI)的快速进步,以及基于AI应用程序的普及,人们越来越关注如何确保AI的开发和部署是对人类有益而无害的。人工智能有可能以有益和有害的方式改变社会。如果AI开发人员能负责任且能从中获得收益,而不是滥用社会和彼此的信任,则更可能实现开发出对社会有益的应用程序,从而避免风险。”论文在结论中表示。(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)支付通Qpos,一款集合刷卡,支付,二维码支付和云闪付的多功能智能型手机POS机,现面向全国招收代理加盟商!5年手机POS机稳定运作经验,数十万用户稳定安全使用的体验,绝对是您不错的选择!欢迎加盟支付通Qpos!

相关文章