北京志远天辰科技有限公司-旗下
首页 » 新闻快递 » 你的人工智能准备好接受监管了吗?

你的人工智能准备好接受监管了吗?

作者:钉钉硬件分类: 新闻快递 时间:2022-4-25 9:15浏览:187次

现在,随着围绕人工智能(AI)的类似法规在世界多个地区开始实施,业界对GDPR的经验可以告诉企业如何准备应对对其人工智能的不可避免的监管审查。

编辑搜图

公司应该面对现实

GDPR的某些部分引起了不小的企业恐慌,因为当时的新规定要求企业提供准确和可理解的解释,说明算法分析(特别指机器学习模型)是如何做出决策的。条例赋予个人要求和接受自动化决策解释的权利,尽管很少有消费者在这一领域真实地行使他们的权利。

不过,尽管GDPR已经问世六年,但都没有催生出一个关于机器学习可解释性的行业标准。因为我们仍在寻找理解和控制分析的明确准则,从更广泛的角度来看,最终的人工智能监管之路也可能是一条坎坷的道路。

事实上,政府对人工智能技术的开发和使用方式进行监管是不可避免的。其中一个主要原因是人工智能的自我调节有很高风险。

2021年进行的一项研究表明,在人工智能领域,高管们对公司的责任应该是什么没有达成共识。例如,在参与研究的公司中,只有22%设有内部道德委员会。一些高管认为人工智能应用不需要符合道德规范,它们只需要被划分为高风险或低风险即可。另一些人则因为没有确定什么是“足够公平”的工具,也没有界定什么是偏见的标准而苦恼。

风险暴露(并最终与政府监管相冲突)对于推动参与度非常重要,可以将人工智能提升到董事会层面的一个话题。如果首席风险官(CRO)没有跟踪人工智能风险,他们应该跟踪。更有针对性的是,CRO应该倡导全面的企业人工智能治理框架,定义道德人工智能标准和模型开发程序,以一种他们能够支持的方式,并经得起监管审查。

虽然GDPR可能没有引发个人消费者对分析决策的内部工作方式的担忧激增,但就连专家也认为人工智能的强劲势头绝对不是什么好兆头。一份2021年的皮尤研究报告指出:

大量(专家)受访者认为,地缘政治和经济竞争是AI开发者的主要驱动力,而道德问题则是次要因素。这些专家中有一部分人表示,人工智能工具的创造者是在团队中工作的,他们几乎没有或根本没有动机去设计解决伦理问题的系统。

为了避免诉讼、消费者的不信任、维权团体的反弹,以及最终更广泛的政府监管,企业需要成长起来,拥有自己设计人工智能系统的方式,并面对和管理人工智能风险。

有很多人都在努力,想要变得合乎道德,但没有多少人支持用具体、可衡量、清晰的术语定义“合乎道德的人工智能”。如果企业集体对GDPR的可解释性部分不予回应,表明组织将如何应对新生的人工智能法规,那么他们将难以理解新法规如何应用(以及哪些部分),合规将如何衡量,以及通过或失败的门槛在哪里。这种解释、衡量和门槛的混乱混合将导致更大范围的混乱。

我们需要人工智能的道路规则

任何人工智能法规要想成功,都需要像高速公路系统一样——有速度限制,违规行为可以客观衡量和处罚。因此,由于企业和行业似乎无法就如何解释分析决策或人工智能模型达成一致,因此需要引入专家,并赋予他们做出艰难决策的权力:定义可接受的特定工具和算法,并将行业衡量的通过/失败指标标准化,而不是简单的“自我报告”标准和关于如何满足这些标准的大量混乱行动。

通过这种方式,我们可以客观地衡量AI是如何发展的,它的功能是什么,它的工作做得好和正确,还是不好和错误?

国外某些行业在分析模型、分析决策、违规和处罚方面处于领先地位。例如抵押贷款行业就是一个很好的例子。信贷决策遵循旨在消除偏见和歧视的指导方针。不遵守规则(使用有偏见的数据、决策标准或模型)的银行将面临监管机构的严厉处罚,并最终失去消费者的信任和业务。

法律将推动人工智能的伦理

人工智能倡导团体的崛起,比GDPR和相关法规预期的个人投诉拥有更大的影响力。这些团体正在推动人们更多地认识到人工智能对消费者生活的影响,当然,还有可能因有偏见的人工智能而承担法律责任。最重要的是,风险暴露往往会促使企业解决人工智能的伦理和偏见问题,特别是在使用人工智能的创新企业是集体诉讼的目标的情况下。