人工智能霍金-物理学家霍金:人工智能可能是最美妙的事
AI中国网
霍金 视觉中国 图
英国著名物理学家霍金(Stephen Hawking)再次就人工智能(AI)发声,他认为:“对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
英国当地时间10月19日,剑桥大学“莱弗休姆的未来智能中心(LCFI)”正是投入使用。霍金在庆祝典礼上发表了演讲。LCFI的一项重要使命是要化解AI风险人工智能霍金,破解AI难题。
“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。”
目前,人工智能在全球领域得到了各国政府的重视。但霍金一直对外称应该对AI持谨慎态度,提高警惕,因为人类有可能会因为自己建立的智能而灭亡。
霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
“我们生活的每一个方面都会改变。总之,创造AI的成功可能是我们文明历史上最大的事件。”霍金说。
剑桥LCFI中心的学术总监Huw Price在接受《卫报》采访时称,中心的研究重点非常集中。“我们一直在尝试组织出现终结者这样的基因,但就像它的名字一样,它会不断的来来回回。”
其实,这并不是霍金第一次就人工智能发出警告。在今年6月份,霍金在《拉里·金现场秀》视频访谈节目中,谈到了他对人类未来的担忧。
他说:“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
这位物理学家一直对人工智能的风险安全问题直言不讳。更早前,他在接受英国广播公司采访也延续了一贯的理念:“全人工智能的出现可能给人类带来灭顶之灾。”
除了霍金外人工智能霍金,人工智能领域里的许多先驱都提出了人工智能的风险问题。硅谷“钢铁侠”马斯克也表达了对人工智能的担忧。他曾与霍金一起,建立了人工智能防范联盟。
AI中国网