人工智能霍金-人工客服智能客服
“
人工智能目前提供了一些有益的工具,使它们被全世界的人广泛使用。若以如下原则为指导,人工智能的持续发展,将于未来几十年甚至几世纪中,创造更多机会以更有效地帮助和壮大人类。
研究问题
1) 研究目标:人工智能研究的目标应该建立有益的智能(beneficial AI),而不是无向的智能。
2) 研究资金:投资人工智能的同时,应资助那些确保其创造有益价值的研究,包括计算机,经济学,法律,伦理学和社会学的棘手问题,诸如:
· 我们如何使得未来人工智能系统高度健全人工智能霍金,从而不会发生故障和被入侵?
· 在维持人们的资源和目标的同时,如何通过自动化来提高我们的繁荣?· 随着人工智能的发展,我们如何更公平和有效地修正法律系统以及管理人工智能相关的风险?
· 人工智能应该遵守哪些价值观?人工智能的法律和伦理状态应当是什么?
3) 科学政策链接:人工智能研究人员和政策制定者之间,应形成积极、有建设性的沟通。
4) 研究文化:研究人员和人工智能开发人员应该被培养一种互相合作、互相信任和互相透明的文化。
5) 规避一蹴而就:开发人工智能系统的团队应积极相互合作,以避免在达成安全标准上偷工减料。
道德标准和价值观念
6) 安全性:人工智能系统应当是安全的,且是可适用的和可实行的。
7) 故障透明:如果一个人工智能系统引起损害,应该有办法查明原因。
8) 审判透明:在司法裁决中,但凡涉及自主研制系统,都应提供一个有说服力的解释,并由一个有能力胜任的人员进行审计。
9) 职责:高级人工智能系统的设计者和建设者是系统利用,滥用和行动的权益方,他们有责任和机会塑造这些道德含义。
10) 价值观一致:应该设计高度自主的人工智能系统,以确保其目标和行为在整个运行过程中与人类价值观相一致。
11) 人类价值观:AI系统的设计和运作应符合人类尊严,权利,自由和文化多样性的理念。
12) 个人隐私:既然人工智能系统能分析和利用数据,人们应该有权利存取,管理和控制他们产生的数据。
13) 自由与隐私:人工智能在个人数据的应用不能无理缩短人们的实际或感知的自由。
14) 共享利益:人工智能技术应该尽可能地使更多人受益和授权。
15) 共享繁荣:人工智能创造的经济繁荣应该广泛的共享,造福全人类。
16) 人类控制:人类应该选择如何以及是否代表人工智能做决策,用来实现人为目标。
17) 非颠覆:通过控制高级人工智能系统所实现的权力,应尊重和改善健康社会所基于的社会和公民进程,而不是颠覆它。
18) 人工智能军备竞赛:应该避免一个使用致命自主武器的军备竞赛。
长期问题
19) 性能警示:因为没有达成共识,我们应该强烈避免关于未来人工智能性能的假设上限。
20) 重要性:高级人工智能可以代表地球上生命历史的深奥变化,应该计划和管理相应的护理和资源。
21) 风险:对于人工智能造成的风险,尤其是那些灾难性的和存在价值性的风险,必须付出与其所造成的影响相称的努力,以用于进行规划和缓解风险。
22) 递归自我完善:那些会递归地自我改进和自我复制的AI系统若能迅速增加质量或数量, 必须服从严格的安全控制措施。
23) 共同好处:超级智能应当只为广泛分享道德理想而发展人工智能霍金,是为了全人类而不是为了一个国家或者一个组织的利益。
目前为止,已经有多达1273名人工智能 /机器人研究人员和其他2541人签署支持这些原则。