人工智能 网络安全-严望佳:人工智能应用主要存在四个方面的安全问题
南都讯 记者冯群星 2021年全国两会正在召开。长期关注网络安全议题的全国政协委员、启明星辰信息技术集团股份有限公司首席执行官严望佳,今年带来了一份有关人工智能应用安全的提案。
严望佳指出,人工智能应用主要存在四个方面的安全问题:人工智能应用通常以大量数据为基础,数据采集、处理、计算等过程难免产生数据安全与隐私保护问题;很多人工智能应用往往直接套用现有模型,“算法黑箱”可能潜藏未知的安全隐患;从底层芯片到上层应用开发人工智能 网络安全,人工智能的落地涉及一系列软硬件供应链,每一环节都可能产生安全问题或知识产权问题;已经出现的“大数据杀熟”、算法偏见等案例显示,人工智能被用于错误目的或是设计不合理,可能带来新的伦理问题。
“安全是发展的前提,发展是安全的保障,为了稳步推进数字经济发展,充分发挥人工智能应用在发掘数据要素价值方面的作用,必须始终贯彻安全发展理念,从多方面采取有效措施加强人工智能应用安全。”严望佳说。
就数据安全与隐私保护而言,严望佳建议,在推进数据安全相关法律完善的同时人工智能 网络安全,加强隐私计算、安全多方计算等前沿技术研究,在不泄露隐私与敏感信息的前提下保留数据价值,支持人工智能应用构建所需的高效计算。有关部门可设立相关专项课题,推动产学研合作开展技术研究与应用落地攻关。
针对算法黑箱问题,严望佳认为,在核心算法原理不明的情况下构建的人工智能应用可能产生意料之外的行为,安全风险不可控。必须提高人工智能应用的透明性要求,尤其在涉及社会、人身安全的关键领域应避免黑箱应用。建议制定相关法律及标准规范,明确各领域人工智能应用的透明性要求与衡量指标等。
2020年以来,围绕确保产业链供应链安全的政策表述不断递进,从“保产业链供应链稳定”,到“提高产业链供应链稳定性和竞争力”,再到“增强产业链供应链自主可控能力”。
中国人工智能产业的发展同样面临着产业链与供应链问题。以芯片为例,中国在芯片制造封装等方面仍存在短板。
就此,严望佳建议加强人工智能应用供应链安全评估,尤其对于涉及国计民生行业中的关键信息基础设施相关的人工智能应用,在做好安全评估的基础上还应强化自主可控要求,避免被“卡脖子”。
她还提出,要规范人工智能应用供应链安全评估机制并研究评估技术与方法,促进相关核心技术研究以实现自主可控等。此外,考虑到人工智能应用越来越多的源自开源软件领域,建议高度关注与加强评估开源供应链安全和开源软件安全,做好开源领域的风险管控。
在人工智能伦理方面,中国已发布《新一代人工智能治理原则——发展负责任的人工智能》等指导性文件。在严望佳看来,要从制度与技术两方面共同采取措施促进发展负责任的人工智能应用。她建议推动研究人工智能治理规范的量化评测方法,制定相关规范制度。