人工智能 算法-瑞莱智慧CEO田天:人工智能算法存在脆弱性问题
每经记者 可杨实习生 汤小权每经编辑 梁枭
“人工智能技术发展的过程中出现了一个全新的问题,也就是安全问题,这主要来源于算法本身的不安全性,因而是非常难以解决的。”中国科学院院士、清华大学人工智能研究院名誉院长、瑞莱智慧首席科学家张钹认为。
人工智能在为人们生活不断带来便利的同时,数据隐私、算法偏见、技术滥用等安全性问题给社会公共治理与产业智能化转型带来不容忽视的挑战。
8月3日,由北京市经济和信息化局和海淀区人民政府主办的“2021人工智能产业治理论坛”在京召开,会上发布了《人工智能产业担当宣言》。
瑞莱智慧CEO田天在会后接受《每日经济新闻》专访时表示,让人工智能更好地服务于人类,是产业共同的目标,人工智能科技公司应该具备社会责任感和自律意识,积极主动开展自治工作,同时开放共享、协同治理。
第二代人工智能算法存在脆弱性
田天在接受《每日经济新闻》记者专访时指出,人工智能安全问题的紧迫性正在提升。
具体而言,从直观感受上,各类人工智能安全问题正集中出现,比如人脸识别的滥用、大数据“杀熟”、个人信息的不当索取、算法对外卖骑手的控制等问题正引发越来越多关于人工智能安全性问题的争议。
而另一方面人工智能 算法,伴随人工智能产业化已经从点覆盖到面,渗透到更多行业特定场景,尤其是一些高价值、高复杂度的场景,安全问题的“危险性”被随之放大,。
张钹在演讲中阐述观点称,人工智能发展过程中出现的安全性问题,主要是第二代人工智能算法本身的不安全性造成的。
“第二代人工智能的算法是‘黑箱算法’。这种深度学习算法本身就是不安全的,容易受到攻击。”张钹以识别一匹马来举例,人工智能是通过马的各种各样的局部特征在连续数据空间里面进行分类,以达到和其他动物区分开来的目的,人工智能的识别和人类视觉的认识完全不同,人工智能的算法非常脆弱,容易受到欺骗。
张钹认为,解决人工智能的不安全性有两个途径。其一是治理,从法律法规、伦理规范、行业共识等不同层面去“治标”;其二是创新发展,克服人工智能算法本身的不安全性,从技术创新层面“治本”。
治理包含两个方面:防止对人工智能技术无意识的误用和有意识的滥用。无意识的误用是指人工智能算法本身带来不安全问题是很难被预先发现或觉察的,使用时要避免错用造成严重的后果;有意识的滥用是指利用人工智能的算法的不安全性进行恶意攻击,需要用法律法规加以制止。而创新发展则指的是发展第三代人工智能,更加任重道远,
不存在治理阻碍发展的矛盾
人工智能的发展是为了人类。纵览人工智能技术近10年的发展,人工智能在金融、医疗、安防、教育、交通等多个领域实现落地人工智能 算法,且应用场景也愈加丰富。
国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理特设专家组专家曾毅在论坛中表示:“我们(指行业)希望人工智能以人类为本,希望它能够赋能可持续的发展”,他阐述,“可持续的人工智能”包括技术本身的可持续性和全球可持续发展目标的实现。
“2021人工智能产业治理论坛”现场