当前位置: 主页 > 技术方案

关于人工智能的问题-关于人工智能的潜在危险及其对人类的“毁灭性”威胁

发布时间:2023-07-08 22:04   浏览次数:次   作者:佚名

关于人工智能的潜在危险及其对人类的“毁灭性”威胁的问题比比皆是。那么,这种仍然(如果确实是真的)笼罩在遥远地平线上的灾难性场景有可信度吗?

机器超越人类并失控时,一系列科幻电影的噩梦就开始了。

机器学习教父之一、加拿大研究员约书亚·本吉奥在最近的一份声明中表示,“从我们拥有经久耐用的机器的那一刻起,我们就会遇到问题。”

数月前,联合国教科文组织呼吁世​​界各国落实其建议,暂停这些项目的开发六个月。该机构警告人类面临着巨大危险,并强调有必要“基于伦理”发展人工智能。

决定性时刻

人工智能问题解决方案_关于人工智能的问题_人工智能问题提问

根据瑞典哲学家尼克·博斯特罗姆的说法,当机器知道如何自己制造其他机器时,决定性的时刻将会到来,从而引发“智能大爆炸”。

《超级智能》一书的作者博斯特罗姆在此前接受半岛电视台采访时认为,如果机器大脑在一般智能方面超越人类大脑关于人工智能的问题,这种新的超级智能可能会取代人类成为地球上的主要生命形式。

根据所谓的“回形针理论”,博斯特罗姆提出了一个假设场景,他表示,例如,如果人工智能被编程为开发回形针生产并提供资源,它可能会以牺牲其他价值和优先级为代价将其他材料转换为回形针。比如,它可能会消耗大量的原材料和能源来提高产量,即使这会导致对人类和环境的伤害,甚至导致人类的灭绝。

1

牛津大学人类未来研究所创始主任、哲学家尼克·博斯特罗姆 (社交网站)

人工智能问题提问_人工智能问题解决方案_关于人工智能的问题

博斯特罗姆对人工智能危险的洞察在科学界极具影响力,它启发了特斯拉和Space X的负责人、亿万富翁埃隆·马斯克和2018年去世的物理学家斯蒂芬·霍金。

致命武器

电影《终结者》中的被未来人工智能派出以结束所有人类抵抗的红眼机器人战士的形象在很多人的脑海中留下了深刻的印象。

但“制止杀手机器人”(Stop Killer Robots)运动的专家们在2021年发布的一份报告中指出,这并不是未来几年自主武器将盛行的方式。

据半岛电视台此前报道,由于人工智能领域的快速发展,能够自动自主识别敌人的武器发展步伐正在加快,然后在没有军官指挥攻击或没有士兵扣动扳机的情况下,它会做出可能涉及杀人的现场决策。

关于人工智能的问题_人工智能问题解决方案_人工智能问题提问

预计随着时间的推移,这些机器将成为新的战争和军事行动的基础,被称为自主或致命武器系统,而它们的反对者则称之为“杀手机器人”。

1

算法:人工智能如何控制我们的生活? (半岛电视台)不那么黯淡的前景

另一方面,加拿大滑铁卢大学的机器人学家克尔斯汀·道滕汉姆(Kerstin Dautenhahn)在接受法新社采访时保证,“人工智能不会让机器产生杀人的欲望。”

她说道,“机器人(本身)并不邪恶”,同时承认它的开发者可以对其进行编程来造成伤害。

人工智能问题提问_人工智能问题解决方案_关于人工智能的问题

在剑桥大学生存风险研究中心发布的宣传视频中关于人工智能的问题,哲学家普莱斯预测:“最坏的情况是我们的物种可能会在没有后代的情况下灭亡”。

然而,通过先进技术增强人类生存可能性的“前景并不那么黯淡”。普莱斯补充道,“纯粹的生物物种最终都会灭绝”。

2014年,史蒂芬·霍金表示,我们的物种有一天将无法与机器竞争。霍金告诉BBC,这将“为人类的灭绝铺平道路”。

至于杰弗里·辛顿,一名正在为谷歌集团尝试制造类似人脑的机器的研究人员,他最近也发表了类似的言论,谈到了超越人类的“超级智能”。

辛顿告诉BBS,可能“人类只是人工智能发展的一个过渡阶段”。