人工智能思维-真正的人工智能会意识并体验像我们这样的世界吗?
文 | AI国际站 唐恩
编 | 艾娃
本文由AI国际站 原创出品,未经许可,任何渠道、平台请勿转载,违者必究。
真正的人工智能会意识并体验像我们这样的世界吗?如果在大脑中安装AI植入物,我们会失去人性吗?机器人和人类应该享有平等的权利吗?如果我复制自己的AI版本,谁将是真正的我?
这些是我们在观看科幻电影和电视连续剧(例如Her,Westworld和Ex Machina)时想到的问题。但是,正如一些科学家所相信的那样,它们将有一天成为现实生活中的问题。我们现在需要考虑它们。
哲学家和认知科学家苏珊·施耐德(Susan Schneider)在她的书《人造的人:人工智能与思想的未来》中深入探讨了超级智能AI的伦理,哲学和科学问题及其对人类的影响。施耐德(Schneider)讨论了通向人工智能,意识和AI,奇点和后人类智力的途径。尤其是,人工智能意识是“人造你”中出现的关键主题之一。
就像与AI的未来有关的一切一样,Artificial You是一个带有很多警告和假设的推测,因为正如一百万次的事实证明的那样,我们在预测未来方面非常困难。但这是对技术如何重塑我们对思维,身份和意识的理解的迫切需要。
意识是人工智能的要求吗?
苏珊·施耐德(Susan Schneider)的“ Artificial You:人工智能与思想的未来”
许多关于人工智能的书籍都讨论了“意识”的概念,即意识到自己的存在并能够体验世界的质量。
在生物生活的背景下,智力和意识同时出现。头脑更成熟的人能够拥有复杂的经历。我们将意识归因于人类,而在较小程度上归因于动物,而不是植物。我们对有意识的生物充满同情心,感受到他们的痛苦,并珍惜他们的生命。
但是人工智能系统需要意识吗?AI应该像众生一样体验世界吗?
施耐德在《人工的你》中提出了关于人工智能和意识的不同信念。光谱的一端是“生物博物学家”,科学家和哲学家,他们认为意识取决于生物系统的特定化学性质。在这方面,生物学自然学家认为,即使是最复杂的AI形式也将缺乏内在经验。因此,即使您拥有可以进行自然对话,执行复杂的手术或驾驶具有非凡技能的汽车的AI系统,也并不意味着它具有意识。
另一方面,“技术优化师”则认为意识是智能的副产品人工智能思维,足够复杂的AI系统将不可避免地具有意识。技术乐观主义认为,大脑可以分解成逻辑组件,而这些组件最终可以在硬件和软件中复制,从而产生有意识的,通用的解决问题的AI。
施耐德(Schneider)拒绝了这两种观点,并提出了一种中间方法,她称之为“等待与观察方法”。
“有意识的机器,如果真的存在,可能会出现在某些架构中,而不会出现在其他架构中,它们可能需要刻意的工程工作,称为'意识工程'人工智能思维,” Schneider在《人造的你》中写道。
为什么一般的AI可能需要或可能不需要意识
在生物生活中,意识还具有另一功能:积极思考和解决问题。施耐德在《人造的你》中指出,但是只有很小一部分我们的心理处理是有意识的。
例如,步行,跑步,呼吸,饮食,扣衬衫,刷牙以及我们完成的许多其他任务都不需要积极思考。基本上,例行任务不需要有意识的思考。另一方面,新颖的任务和情况需要专注和有意识的计算。想一想您何时学习骑自行车或开车。考虑在熟悉的道路上行驶而不是在新社区中行驶。一些科学家将这些认知过程称为系统1和系统2思维。
那么,如果有一个已经知道一切的AI,是否需要有意识的思考?
施耐德写道:“特别是,超级智能AI是一个在每个领域都拥有专家级知识的系统。”这些计算可能会覆盖包括整个Internet的庞大数据库,并最终涵盖整个星系。什么是新颖的?哪些任务需要缓慢的审议重点?它已经掌握了所有内容吗?也许像熟悉道路上经验丰富的驾驶员一样,它可以使用无意识的处理。”
有更多的理由相信,即使可能,科学家也希望避免将意识嵌入其AI系统中。“如果一家AI公司试图销售一种有意识的系统,它可能会面临机器人奴隶制的指控,并要求禁止将有意识的AI用于开发AI所要完成的任务,” Schneider在《人造你》中写道。“实际上,即使在原型阶段,如果AI公司建造有意识的机器,也可能会承担特殊的道德和法律义务。”
如果商业实体继续主导AI研究,这将成为一个严重的问题。为了避免法律和道德上的复杂性,公司可能会做出故意的决定来创建缺乏意识的AI系统。
另一方面,有理由相信有意识的AI系统可能是有益的。有意识的AI系统可能很强调人性化。人工智能赋予我们的价值可能取决于它是否认为自己像我们一样。这种洞察力可能只需要机器意识。就我们所知,有意识的AI可能会导致更安全的AI。
支持有意识的AI的另一个论据是它们对消费者的吸引力。施耐德说:“人们渴望真正有意识的AI同伴,鼓励AI公司尝试生产有意识的AI。”但是我们也不知道在情感上依附于一个AI系统的含义,该系统将使我们寿命更长,并且是从完全不同的基础上构建的。
测试AI意识
几十年来,科学家开发了各种方法来测试AI系统中的智能水平。这些测试的范围从图灵测试和较新的抽象推理语料库等一般评估,到特定任务的基准,例如计算机视觉系统的图像标签数据集和自然语言处理算法的问答数据集。
但是,要验证AI系统是否有意识,说起来容易做起来难,Susan Schneider在“人造的你”中讨论。意识不是二元的,现在的-不是现在的质量。有一个单一的测试无法涵盖的意识水平不同。
例如,黑猩猩或狗不会通过语言测试,但这是否意味着它们完全缺乏意识。同样,某些残疾人可能无法通过其他普通人认为微不足道的测试,但是断定他们没有意识会很恐怖。有什么理由可以区别对待高级AI吗?
“不能对人工智能意识进行一刀切的测试;Schneider写道:“更好的选择是根据上下文使用一系列测试。”
施耐德(Schneider)在她的书中描述了几种测试,这些测试可以很好地回答AI意识问题。她还强调,这项工作尚未结束,我们仍然需要研究和开发AI意识测试,并考虑中间场景及其可能的含义。
“一种预防性态度表明,我们不应在没有仔细衡量其意识并确定其安全性的情况下简单地推动复杂AI的发展,因为有意识的机器的无意或有意发展可能对人类构成生存或灾难性风险-风险Schneider警告说,从取代人类的易变的超级智能到与AI的人类合并,削弱或终止了人类的意识。
对话不止于此
人为的您触及更多主题,包括人机合并,AI奇异性和控制问题。这些问题正在从小说的领域逐渐变为现实。对于任何想超越当前对优化机器学习算法的关注,并一窥IA哲学大局的人来说,这将是一个令人耳目一新的读物。
“这本书的核心是哲学与科学之间的对话,”施耐德写道。“新兴技术的科学可以挑战并扩大我们对思想,自我和人的哲学理解。相反,哲学使我们对这些新兴技术可以实现的目标更加敏锐:是否有意识的机器人,是否可以用微芯片代替大脑的大部分,并确信它仍然会是你自己,等等。”