何为人工智能-面对AI算法风险,政府应如何应对?
现今的我们生活在算法时代,例如我们在使用美团时,美团会通过AI算法计算我们的个人喜好,并根据算法结果向我们推送我们有可能会进行消费的商家;又例如某企业信息APP,当你多次搜索某公司的信息时,它会认定你对该公司较为关注,并在此后当该公司的企业信息有更新时,向你发送短信“您浏览过的某公司近期有新公告更新,请查看”。AI算法时代的到来,为我们的生活提供了不少的便利,但从另一角度看,AI算法风险也伴随着我们,例如前段时间的购物消费APP“大数据杀熟”、某APP在运行过程中收集用户的个人信息并造成信息泄露等......为了维持社会的正常秩序,面对AI算法风险,政府应如何应对?本文将从何为AI算法风险、AI算法风险的具体表现特征、政府如何面对AI算法风险三个方面进行展开,希望可以对大家有所帮助。
一、AI算法的风险剖析:其本质是伦理问题
(一)AI算法是什么?
算法是指解题方案的准确而完整的描述,是一系列解决问题的清晰指令,算法代表着用系统的方法描述解决问题的策略机制。这是一个自动化的过程,传统意义上的算法,是程序员以手动方式编写代码,并通过这种方式来定义简易算法的决策规则和权重分配。而AI即人工智能,早期学者 NilsJ.Nilsson 将人工智能定义为“知识的表示、知识的获取以及知识的运用”。在AI算法中,程序员无需自己手动编写代码,只需向机器给出一个合适的算法,然后给它足量的训练数据即可,机器通过学习算法后,自己给自己编写代码,且通过获得数据中产生新的模式和知识进行推断,并生成有效预测的模型。掌握的数据越多,它们的工作就越顺利。因此AI算法具有基于大数据系统对决策规则进行自主定义、修改和调整的能力。
60 余年发展,人工智能从简单逻辑推理发展到超人工智能,成为应用广泛、深刻改变人类世界的革命性、颠覆性技术,引领人类第四次工业革命,人类正迎来全新的人工智能时代。与此同时,当 AlphaGo 震惊世界、特斯拉 Autopilot 事故引发争议、“索菲亚”获得公民身份,人工智能技术潜在的伦理风险亦让人忧心忡忡:人工智能技术是机遇亦或灾难?
(二)人工智能算法的风险
随着AI算法本身的复杂性及AI算法与决策过程的其他参与者之间的互动在不断增加,AI算法所带来的可解释性和可预测性困难已似乎变得越来越难以解决,同时也为人们带来了不少的AI算法风险。
AI算法在当下社会凸显的风险本质上属于AI算法引起的社会伦理问题。例如在司法领域,AI算法被用于分析判例以此来协助律师或法官的判案工作;在金融领域,对申请人贷款的批准与否越来越多地交给AI算法来完成。AI算法不只是存在于网络空间的代码,而且已经渗透到人们生活的每个片段和角落,深刻地影响着我们对周遭环境的认知和理解,并渐趋成为我们生活世界底层架构的一部分。
风险实质是一种事物发展过程中损益发生的可能性,表现为不确定性与不可估量性。一般意义上讲,伦理是处理人与人、人与社会等关系时的道德准则,也是行为规范。伦理风险作为现代社会新型的风险类型,它是“在人与人、人与社会、人与自然、人与自身的伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应,诸如伦理关系失调、社会失序、机制失控、人们行为失范、心理失衡等等”。[1]当我们发现AI算法并将其运用到社会运作之中的时候,AI算法与人类生活的适配性问题就产生了,而这些问题主要都是源于AI算法进入到人们类的道德生活当中,在某些方面会与社会道德、法律体系背道而驰,而此时,所谓的AI算法风险也就出现了。
(三)AI算法本身的不可控性
AI算法基于使用机器学习和推理统计来处理海量数据,并基于其自主得出的相关性逻辑得出不确定的归纳知识。尽管这种不确定性可以通过统计方法进行量化,但统计方法只能识别出不同变量之间的相关性,而不能甄别出因果性。因此,为了达到某一目标,通过分析相关变量可能无法判定导致某一行动的根本原因。虽然人们期望在数据和结论之间建立某种特殊连接,使前者成为后者的可靠证据,但这种连接在很多情况下不仅不是透明的,有时甚至是难以理解的,遑论对它进行监视和改进。也即是说,数据的规模、来源和质量不断增加着算法操作的复杂性。尤其是,机器学习所依赖的底层数据与目标知识之间的中间环节过多,过程的复杂性进而强化了它的不可理解性。因此,AI算法的自主性特征使得那些试图为算法行动寻找确定性和可理解的证据的计划变得困难。
二、AI技术的伦理问题具体表现
AI技术的伦理问题主要表现为以下两个方面:责任归属的困境——伦理规范面临失控的风险以及出现伦理价值失衡的风险。
(一)伦理规范失控风险
某些知名汽车公司的智能无人驾驶汽车致死的事件频繁上演,引发了新一轮的责任伦理争议。与传统的人车关系不同,智能驾驶汽车颠覆了人们的传统认知。以往,由于驾驶员疲劳驾驶、违规驾驶导致的交通事故责任认定明确,但无人驾驶模式下,发生交通事故后就会出现责任认定的困境——驾驶员既没有违规操作,也不存在疲劳驾驶。如何对其进行责任分配将是值得商榷的。倘若造成致人死亡事件或财产损失,在人工智能机器价值模糊的语境中,人们很难对事故后果的价值模糊进行是好或是坏的明确判断,那么这应由谁来承担道德和法律责任呢?除此之外何为人工智能,人工智能在未来也可能会被用于战争,那么传统的国际法又该当如何规制呢?
其次是人工智能技术开发的责任失当难题。人工智能技术的核心即为决策算法,而这一算法是由人工智能技术开发者、设计者掌握。然而,由于人工智能算法具有复杂性、不可预测性,人工智能技术程序与算法离不开设计者的努力,但设计者能否确保智能机器在面临伦理决策困境时,做出对人类最有利的选择呢?
在传统责任伦理规范中,设计者无可置疑是责任主体,而在人工智能时代,设计者是单一的原子责任主体,因技术复杂性、系统性,使其与其他设计者之间存在的利益纠葛而无法明确。囿于价值偏差、利益追求以及错误认识等,一旦设计者处于自如状态,就会削弱其承担责任的意愿,背离应然价值责任,甚至藐视、否定社会伦理规范,引致责任失衡。
(二)伦理价值失衡的风险
AI算法在处理数据时,数据的输入也会为结果的输出设置限度。换句话说,就是AI算法在经过大数据建模后会逐渐习得人们的语言模式,包括语言模式中包含的种种偏见。因此,训练AI算法的数据并不是价值中立的,在其底层渗透着数据生产者的价值观。AI算法总是会或多或少地受到个人或集体偏见的影响。这种价值渗入过程主要有两种路径:一是程序开发人员在设计AI算法时,参数设定会受到主观价值偏好的影响;二是用户在使用智能设备时可以根据自己的需要设置AI算法应用参数。因此,AI算法在一定程度上反映了创制者或使用者的价值偏好,并通过这种方式传承了人类社会的价值体系。
目前讨论最多的就是“大数据杀熟”的问题。尽管新颁布的《个人信息保护法》明确了要限制自动化决策,遏止这股不正之风,但在具体操作层面上却存在难度。人们在使用各种应用平台时,会自觉或不自觉地通过社交软件、购物平台和搜索引擎等方式将自己的个人信息共享到平台上。这导致的后果是,人们对自己的个人信息和隐私的控制越来越弱。这里的冲突在于:一方面,人们强烈要求各种应用平台要尽可能地保护个人隐私;另一方面,人们要求算法要具有透明性、可解释性和可理解性。而如何做到既要公开又要保护隐私,还有待研究。
三、政府治理要点
(一)明确AI算法的归责问题:难以溯源
算法能够自主地调整操作参数和规则,这种调整被比喻为“黑箱操作”,由此也就将不确定性引入了决策过程,从而对算法的可控性提出挑战。由于算法决策过程的中间环节过多,就现有技术水平而言,确定某一具体操作失误究竟是编程错误、系统故障或偏见影响往往非常困难。这意味着确认算法活动的影响或溯因变得困难,因而准确定位导致行为后果的直接责任主体更是难上加难。
AI算法的可控性可能是一个永无止境的追求,甚至是一个难以完成的任务。AI算法操作有数不清的调节参数,其分析维度也几乎是无穷多的。以深度神经网络为例,它由成百上千的数学函数(相当于“神经元”)构成,这些函数可以组成数不清的连续软件层,现在的网络可达两百多层。因此,这也就造成了当AI算法出现失误时,我们难以确认其发生失误的根本原因,并基于失误原因确认责任的承担问题。
(二)明确现有法律规范难度
自1994年我国发布《中华人民共和国计算机信息系统安全保护条例》以来,我国就已经步入了网络信息安全立法的阶段,现已形成宪法、法律、法规、行政部门规章、司法解释和行业自律守则等多层面的信息安全法律体系,如《数据安全法》《个人信息保护法》《规范互联网信息服务市场秩序若干规定》《关键信息基础设施安全保护条例》《移动互联网应用程序信息服务管理规定》《最高人民法院、最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》以及《深圳经济特区数据条例》等。但是确定AI算法确定的或潜在的伦理风险,是需要经历长期的、反复的、多用户的开发过程进行研究。实际上,在蒸汽机发明了十多年之后,热力学定律才被总结出来。以此类推,只有算法被广泛地嵌入人们的日常生活当中,它所引发的伦理问题才能被充分显露。那些试图为算法将会面临的伦理问题预置解决方案,以期防患于未然的做法并不切实际。
上述所提到的法律法规,无一例外都是滞后于算法发展的法律规定。我们认为遏止算法滥用何为人工智能,首先需要“驯化”算法,其次需要规范使用、应用算法的人。当下的法律仅对后者有些许控制,但在控制算法上,基于算法的不可预测性而变得十分棘手。
(三)强调协同治理,不能仅靠政府遏止算法的滥用
如果要将AI算法风险掌握在可以控制的范围内,使政府可以遏止AI算法的滥用,那么人们必须攻克两类算法:一是人类很难预测其行为后果的算法;二是造成的事实背后的决策逻辑难以解释的算法。但无论是哪一类,目前我们都不可能完全的掌握,也无法对其进行预测,因此,我们认为,AI算法风险实质上是不可控的,政府也难以对其加以遏止。AI算法涉及各方各面,对于AI算法风险的防控,首先需要的就是AI算法研究的专业技术人员,其次还需要在各领域颇有研究发人员参与其中,而不应当仅凭政府来进行控制。各行业都应当形成遏止算法滥用的自觉规范,这样即使风险不可控,但能尽可能的降低算法滥用行为。
(四)具体防控建议
1、学习并制定符合我们国情的AI算法管理规定
2021年6月及7月,美国国家标准技术研究所分别发布《关于识别和管理人工智能歧视的标准提案》及《人工智能风险管理框架》征求意见稿,前述两份文件的出台,是为了帮助AI算法的设计者、开发者或使用者能够更好地管理AI算法整个从设计到运行的周期中可能出现的风险。因此,政府可以相关的AI算法专业研究人员一起合作,参考学习其他国家或地区的优秀方案,经过优化后制定更适合我们国情的规定,帮助AI算法与社会达到更好的适配度。
2、设计阶段提前预测有可能潜在的风险
AI算法在设计上的缺陷会直接导致AI算法风险的出现,因此在设计阶段开发者就应当树立正确的开发理念,以合乎伦理和道德的方式设计算法,在设计阶段不仅要关注AI算法系统的性能,亦要考虑到该AI算法系统在实际应用中的表现效果,有效识别和减少算法偏见等负面影响,拒绝设计和使用具有明显缺陷的AI系统产品。
3、协助AI开发者、研究者、适用者执行管理规定
AI算法风险防控不只是政府的工作,也不只是开发AI工具的开发者或使用者单方面的工作,而是应当由政府和科技公司共同协力、共同攻克难关。政府在制定了相应的规定后,可以成立专门的工作小组,协助AI开发者、研究者、适用者更好、更快地执行相关管理规定,共同识别和消除AI决策的潜在风险。
4、投入使用前进行审核
许多AI工具在进入使用前都没有进行专家审核这一步骤,而是在开发出来后直接将AI工具而投放市场给使用者使用,我们认为,AI工具在开发之后投放使用之前,应当经过专门的检测,对AI工具可能出现的环境偏差或缺陷进行排查,尽可能地减少AI算法风险产生因素,从而达到降低风险的效果。
结语
不可置否,我们当下已经生活在算法时代,近年来,语音识别、图像识别、机器翻译、医疗诊断和自动驾驶等技术的发展突飞猛进,其表现令人叹为观止。算法已经成为信息社会的一种基础设施,引导和支配着我们的思维和行为,甚至在某种程度上决定着我们的生活和工作方式。可正是因为我们大多数人都在享受算法带来的生活便利,从而忽视了算法本身的原理。在人们过度自信或者说自大的以为算法可控的前提下,汽车人工智能系统也毫不令人失望的上演了一出又一出人间惨剧。遏止AI算法的滥用,是一个长久的战役,需要经历长期反复的研究。
参考:陈爱华 . 高技术的伦理风险及其应对[J]. 伦理学研究,2006(4)
曹建峰、胡锦浩.腾讯研究院公众号文章《如何在 AI 全生命周期中防范算法歧视风险?》