AI算法治理,难点在哪里

张成洪2023-09-01 20:10

张成洪/文

自2016年3月阿尔法狗(AlphaGo)击败人类棋手李世石的新闻传出,到去年年底ChatGPT问世,人工智能(AI)技术开始具备了通用人类意图理解和思维链的能力,尤其是在与深度学习和生成式AI相结合的情况下,再加上基于人类反馈的强化学习,计算机已经能够完成编程、写作、绘画等任务,逐步接近了“人类能力地图”上的几座高峰。

人们对人工智能的关注逐渐升高,兴奋之余也开始思考机器智能是否可能超越人类智能。

AI的“远虑”和“近忧”

今年上半年,包括马斯克在内的千名全球科技人士联名发布了一份公开信,呼吁暂停推出更强大的人工智能系统。

尽管我认为这份公开信的呼吁不太可行,但其中提出的许多观点值得深思。其中,特别强调需要建立专门负责人工智能的、有能力的监管机构;强调推出标明来源系统和水印系统的重要性,以帮助区分真实信息和合成信息,并跟踪模型的泄露;此外,还提出需要强大的审计和认证体系,以确保人工智能系统的透明度和可信度。另外,公开信还提出了需要明确人工智能可能造成的伤害所对应的责任归属。

这些内容表明,科技领域的关注不仅仅局限于人工智能的应用,更多地开始关注人工智能是否会带来负面影响,是否需要对其发展进行适当的限制。

即使不去考虑AI的“远虑”,也需关注AI的“近忧”。比如,电商平台依赖算法进行推荐和定价,可能导致价格歧视和大数据杀熟现象;视频网站通过算法推荐内容,可能造成信息茧房,加剧信息偏见,还有比如搜索排名与个性化推荐被操纵;医疗领域误诊风险;隐私泄露、诱发舆论暴力、种族、性别的歧视;人类过度依赖算法,使个体失去自主性等负面案例;当算法决策或应用结果损害特定主体权益时,由于规则和原则不明确,可能导致利益救济不足的风险;滥用或误用算法也是一个潜在的风险,算法产生的决策效果可能会破坏社会的公正和社会凝聚力。

因此我们迫切需要对AI算法进行有效的治理。

AI算法的基本原则

AI算法治理的定义是基于风险防范的要求,把算法本身以及其应用的场景和解决的问题,作为治理对象进行规范化、合规化的监管和修正。

目前学界对于算法治理提出了不同的定义,有学者认为算法治理致力于提高算法的可解释性、透明性和技术保障,涉及一系列技术标准和法律规范的制定。也有学者认为,算法治理旨在确保算法的安全性,要对算法建模和预测的全过程进行管理。

当涉及到算法的标准和要求时,现在出现了一些新的术语,例如公平的AI、可解释的AI、负责任的AI和可信的AI等等。综合考虑这些概念,我们总结出七点制定AI算法的基本要求。

1)准确性。AI算法的首要任务是准确,如果不准确本身就没用,还会带来负面效果。

2)稳定性。它要求我们的算法不仅在当前情境下准确可靠,还需在不同情境下保持准确可靠。

3)可靠性。保证算法决策依据的充分性,保证决策结果可靠,可信任。

4)公平性。保证算法的决策无偏向性,无指向性。

5)透明性(可理解性)。保证算法的决策过程是透明的,决策结果是让大众可以理解的。

6)安全性。算法的开发和使用必须免受安全隐患的影响,不能因为外部干扰或攻击而导致算法误判。

7)隐私保护。算法一定会使用数据,所以要保证数据的安全,保护用户隐私。

对于AI算法治理的必要性,目前社会已经拥有共识,但我们还没有形成AI算法治理的体系。难点在哪里?在于AI算法是一个“黑匣子”,难以检测AI算法是否符合透明可解释、公平多样、安全合规等要求。此外还存在着设计人员怎么保证算法是合规合法的、符合科技伦理的,应该由谁负责AI算法的治理,谁又有能力来做AI算法治理等一系列问题。

基于此,我认为AI算法治理至少要包含三个层次。第一个层次,是算法治理的政策法规,由国家行业的主管部门制定政策,给予指导。

第二个层次,是算法合规性的审计,依据法律法规或者行业要求对企业展开检查和监管,这个可能企业内部做,也可能需要行业或国家成立专门的监管机构去做。

第三个层次,是开发出合规合法的AI算法,这对开发人员、对算法工程师是有要求的。

算法治理的政策法规

算法治理的政策法规具有特殊重要性,因为它是算法治理的重要指引,是全社会的共识。政府与行业需要共同合作,制定法律法规,以确保算法的合理运用,并进行必要的政府监管。这需要确立健全的算法问责机制,明晰算法的责任主体,以促进算法治理走向科学化、体系化。

同时,伦理道德方面的约束也不可或缺。一些企业在这方面也展现出积极努力,例如微软设立了人工智能能力委员会、美国联邦政府与亚马逊合作开发促进算法公平性的项目。另外,腾讯一直强调科技向善,阿里在实践中也致力于开发负责任的AIGC。

实际上,从2021年起,我国相继颁布了一系列关于算法治理的法律法规。例如,于2021年3月发布的人工智能算法在金融领域应用的评价规范; 7月份人力资源和社会保障部等八个部门共同发布了一份指导意见,着眼于维护新兴就业形态下劳动者权益的保护;8月份国家出台了互联网信息服务算法推荐管理的规定,主要是强调信息服务的推荐过程中要避免信息茧房,在2022年形成了正式的意见;9月份发布《新一代人工智能的伦理规范》,2022年11月份,又出台了《互联网信息服务深度合成管理规范》,今年发布了《生成式人工智能服务管理办法》的征求意见稿。近几年有大量的相关文件发布。

AI算法合规性审计的意义与困难

算法治理的第二个层次即算法合规性审计,以2021年美团为例,为应对社会上对于骑手困在算法中的关注,在国家出台相应要求以保护骑手权益之际,美团采取了措施,公开了其骑手调度管理算法。然而,此举并未如预期般奏效,因公开程度较为粗略,难以被广泛理解。

在此引发一个问题:公开的程度应如何界定?若完全公开,是否会损害公司有关算法的知识产权?公开程度与算法知识产权保护怎么去平衡?这是一种矛盾。

相比之下,更好的方式是将其向专业人士或专门机构公开,设立专门的审计机构,以审计为手段检查企业或其AI程序是否遵守政策法规,确保其算法达到合规向善的企业承诺。当然,审计方式或可为企业内部部门,亦或为外部专业机构。

目前,对于AI算法进行审计确实极具挑战性。

过去,企业对业务进行审计时可能发现,大部分业务实际上是由信息技术(IT)主导的,或者说业务的运转离不开IT系统。因此,对于IT系统的审计变得不可或缺,这可能需要对IT系统的逻辑进行严格审查。

而当我们面临算法审计时,即便有条件打开算法代码,很可能仍然无法判断其合规性,尤其对于许多深度学习的AI算法来说,它们常常被视为黑匣子,难以深入探究其内部机理。

当然,算法审计仍然需要继续前行,这需要在几个方面展开工作。

首先,制度建设是关键,其中一个方向是确立相应的监管体系。监管部门需要将算法视为监管对象,并对其全过程进行监管。有时候,由企业内部自行进行算法治理,而在某些情况下需要引入第三方的外部算法治理。其次,我们还可以借鉴传统审计流程的经验。制定一套标准,通过调研收集必要的信息,并进行测试和反馈,再总结审计结果。此外,需要基于算法合规性要求设定审计目标,并逐步细化成合规性的评价指标。最后,利用专门的方法和工具去测试被审计算法的各种指标,从而判断该算法的合规性。

目前,AI算法审计仍处于初步探索阶段,还需要大量的研究和探索,但同时也蕴含着巨大的机遇和潜力。在AI监管要求不断加强、AI负面事件增多的背景下,随着技术的不断发展和专业机构的建立,我相信AI算法审计会逐渐成为一项重要的工作,为确保AI系统的透明性、公平性和合规性发挥着关键作用。

合规算法开发的需求与挑战

实际上,在算法开发阶段就考虑合规性问题是非常重要的,因为事后审计存在局限性,有时候可以说是于事无补。

然而,确保算法在开发过程中合规并不是一项容易的任务。对于可解释的模型,我们可能可以采取一些方法来确保样本特征、参数、目标函数等都符合合规要求,但对于深度学习等复杂模型来说可能更具挑战性。

此外,如何将合规性要求与业务要求融合并在模型的训练过程中加以约束也是一个重要问题。我们需要考虑如何确保模型是可解释和可监管的,同时符合科技伦理标准。这可能需要采用一系列策略。

综合而言,人工智能对人类的影响深远,然而它又可以说是一把“双刃剑”,我们既需善用人工智能,也要严密监管,特别是在AI算法治理方面。尽管我国已在政策层面积极出台许多相关政策,但就算法治理的合规性审计和合规算法开发而言,仍处于探索初期。

要推进AI算法治理,需要高校和企业共同研究推进,行业和政府制度也应密切参与,同时,AI开发人员也需自觉承担责任。我深信,通过对AI算法的有效治理,我们将确保科技未来的善用,真正实现人工智能的负责任发展。

(作者系复旦大学管理学院信息管理与商业智能系教授)

版权声明:以上内容为《经济观察报》社原创作品,版权归《经济观察报》社所有。未经《经济观察报》社授权,严禁转载或镜像,否则将依法追究相关行为主体的法律责任。版权合作请致电:【010-60910566-1260】。
Baidu
map