人工智能能产生意识吗-人工智能会不会发展出“自我意识”
作者:单许昌,经济学博士,北京市社会科学院助理研究员。
图/摄图网
近期,由美国OpenAI研发的聊天机器人程序ChatGPT火遍了全球人工智能能产生意识吗,因其能够与人类在某种程度上进行交流对话、有针对性地回答问题、撰写文案及新闻报道甚至论文等功能,激发了人们对人工智能发展前景的无限遐想。人工智能突破性发展,已经成为熊彼特意义上的“破坏式创新”。甚至有一些学者认为,当下正是人工智能发展的重要“奇点”,未来的机器智能将全面超越人的生物性智能。还有人认为,与之前发明火和机器不同,它是人类最后一次发明,因为它正在取代人的智力正常发育与发展,可能开启了人类终结的“潘多拉魔盒”,也可以说是走向了一条向“死”而生的路径。
正是因为如此,人们也普遍担心自己的工作会不会被人工智能替代,人工智能会不会发展出“自我意识”进而反噬人类。从历史上看,新技术在没有提供足够就业机会的初始阶段,人们总是重复性地担忧自己会不会因此而失去工作和地位,就像几百年前一些人担心机器替代自己工作一样。一些人还给抛出了问题:哪种职业最容易被ChatGPT替代?客户服务代表、市场分析师、新闻记者、翻译人员等职业成为被替代的“高危职业”。这类工作一个共同特征,都是重复性知识为主。之前,体力劳动者普遍担忧被技术创新替代,而今,脑力劳动者也在为此担忧。至于人工智能会不会发展出“自我意识”,也同AlphaGo(阿尔法狗)当年打败围棋职业选手或者科幻小说中机器人消灭人类一样,引起人们对人工智能产生自我意识进而毁灭人类的担忧。
关键技术破坏性创新带给人们的双重效应:惊奇与恐惧
事实上,在人类发展史上,每一次重大的技术变革都会带给人们惊奇和恐惧。人工智能显著降低了一些重复性劳动的成本,譬如说动画设计领域,通过虚拟人物和虚拟场景,可以降低制作成本,节约制作时间。但人工智能超速演化也让人们对它是否有助于促进人类的福祉心存芥蒂,甚至感到恐惧。据报道称,比利时一位男子因环境问题产生困惑,与人工智能机器人“伊丽莎”反复交流后,过于焦虑而自杀身亡。恢复的聊天记录显示,机器人一开始总是顺着他的意思回答,后来回答却让人困惑,最后自杀时机器人回答是在天堂与他共存。
当然,此事只是一个人工智能引发的极端悲剧,但随着人工智能越来越深入人们的生产和生活领域,人们对它带给人们方便的同时,也对其快速发展感到忧心忡忡。因为它颠覆了人们对某一领域基本假定、价值导向和行为逻辑,从而产生一种新的基本假定、独特的价值导向和不一样的行为逻辑。而人工智能的技术的崛起,让人类世界从信息化社会突然跃进了智能化社会,其中的关键点是信息化重点是人搜寻数据并将之信息化、知识化进而应用的过程,这是一个经由观察上升为科学进而改变技术和产品的逻辑过程;而智能化的重点是以数据为原点,直接产生知识并应用的过程,形成一个“数据——知识——产品——数据”逻辑闭环。
预设与边界:哪类知识最易被人工智能替代
那么,人工智能到底能不能代替人类生成知识?如果能够,它能够替代哪些知识?这就涉及人类知识的类型及其生成逻辑问题。亚里士多德将知识分为三类,分别是“理论知识”“实践知识”和“创制知识”。其中理论知识相当于现代的科学知识,在人工智能领域,表现为人工智能的基本理论和模型,例如人工智能的算法;实践知识相当于现代实践中的智慧,在人工智能领域,表现为人工智能具有“智能”解决问题的思维模式和目标导向;创制知识相当于现代技术经验知识,在人工智能领域,表现为其应用场景知识。日本知识创新学者野中郁次郎按照知识是否可以言说,将知识分为隐性知识和显性知识。
我们根据知识获取方式将知识分为三类:理性知识、感性知识和活性知识。所谓理性知识,主要是那些可以用概念、判断、推理进而形成理论体系的知识,这类知识一般可以用文字或语言符号表达,例如常见的物理定理、几何定理以及人文社会科学的理论。感性知识是与人生产和生活实践有关,它难以用语言表达,与一定场景密切相关,例如打铁的诀窍、企业家特定的场景下无法言说的直觉判断,等等。活性知识与人情感和反思有关,它涉及人的价值观。活性知识的“活性”是说明人都有一种为了活下去或者活得更好的倾向。活性知识是驱动人们运用理性知识和支配感性经验知识的内驱力量。这三类知识相互转化,共同生成人类整体知识。
互联网出现以来,人们发现知识呈现爆炸性增长。一方面,得益于受过高等教育群体的增长,知识创造者越来越;另一方面,得益于互联网让知识在全球范围内的传播和分享更为便捷。但是,我们所谓的知识爆炸性增长,主要是指可以言说的用文字或语言符号可以表达的理性知识。而根植于具体情境和事务中的感性经验知识和具有价值观导向的活性知识虽有所增长,但其积累速度远远小于理性知识的爆炸性增长速度。
人工智能的强项在于生产用语言可以表达的理性知识。主要体现在理性知识与理性知识重新组合方面,人工智能展现出强大的能力。根据当前披露的ChatGPT问答对话中,可以看出它对问题的回答,主要是将分散性的理性知识重组或系统化。虽然从理性知识向理性知识转化也是知识创新的一种形式,但这种形式局限性也很鲜明,即它受到现有理性知识的限制,如果重组的理性知识本身有缺陷,很可能影响理论重新组合创新的质量。随着机器学习和算力增强,人工智能机器人还在搜索现存知识、信息和数据方面超越了具体个人。从本质上来说,人工智能所涉猎的理性知识是人类整体理性知识集合,依据独特算法,它能够比具体的个人提取更多的知识。
具体的个人往往是某一领域擅长,但人工智能可以在人类知识库中迅速提取匹配性的知识,尽管它的回答经常出错。可以说,人工智能的进步,是整体人类共同进步的结果,它可以帮助人类加速理性知识组合类创新进程。另外,随着数据库的扩大和机器学习等算法进步,人工智能可以在短期内处理大量的数据和信息,同时不受到个体的情感情绪、既往经验、价值观念等限制,它所做出的“判断”和“决策”更为客观。但最终的决策权还在人的手中,它只是在数据、信息体系化层面具有重大辅助作用,真正从感性经验知识上升到理性理论知识还需要具体的人来决断。
在实践性很强的感性知识生成方面,人工智能在语音识别、图像识别、自然语言处理方面要比具体的个人更为灵敏,而且在具体场景方面适应性越来越精准。人类知识的增长,由于技术的限制,无法将大量具体场景的经验、技巧传播开来和传承下去。长期以来,只有将这些经验知识转化为理性的、可以言说的文本才能跨区域和跨代传递。但在实践中,各类诀窍和具体场景类知识无法转化为文字或语音,于是就限制了经验知识的积累。短视频的出现,部分地解决了感性知识传播分享再裂变创新的时空限制。但是,大量的经验知识还是无法有效传播和积累。因此,有调查研究分析称,人工智能可能替代大量的脑力劳动者,但无法替代像运动员、电力安装维修工这些拥有熟练技术的体力劳动者。
人工智能在活性知识创造方面,人工智能是否具有自我意识争议非常大。一些观点认为,通过目标函数的设定来自然涌现出自我意识,比如设定趋利避害、价值观以及社会属性等。人工智能本身的善恶取决于训练的数据,当下科技伦理远远落后于科技发展速度,有必要按下暂停键,以便给人类留下“反思”时间。与此相反人工智能能产生意识吗,另一些观点认为,人工智能只是技术的进步,它本身是人类集体智慧的结晶和一定阶段的产物,无法产生情感和价值观之类自我意识。事实上,人工智能的“自我意识”牵涉到活性知识中情绪情感机制、反思机制和价值观机制。人们不禁要问,人工智能到底有没有自我意识?从哲学上来说,这涉及自我意识是不是一个客体,譬如像疯狂的拉康认为那样,把自我意识当作一个客体。如果按照拉康这种说法,如果将自我意识视为客体,那人工智能就具有自我意识。其实,这就把人的思维两个方面思维能力与思维过程割裂开来,把“意识”也看成一个客观存在的客体。实际上,人创造知识能力和创造知识的过程密不可分,就像一个硬币有两个面。人工智能是人类改造世界能力增强表现,同时也是人类改造世界过程体现,它本身并不是一个具有独立自我意识的客体,它的主体性是作为人类集体智慧结晶的体现。因此,人工智能并不具有独立的自我意识,尽管它具有与人类自我意识相似的某些特征。有些人利用这些工具假象“作恶”,譬如窃取商业机密、诱导某些个体作出不利的选择等。近期有位女乘客的正常照片,被人工智能一键脱衣,引起社会普遍愤慨,这背后并非人工智能在作恶,而是一些人利用人工智能这个工具在作恶。特别是一些拥有人工智能和大量数据的公司,可能会利用这些优势作奸犯科,还可能将这些不法行为甩锅给具有“自我意识”的人工智能。另外,西方某些国家正在利用人工智能“自我意识”表面的客观性,隐秘操控问题“标准”答案,借以宣传自身价值观,从而影响、改变个体的价值观,企图操控技术逻辑来影响和改变价值逻辑。大型人工智能文化,也正在成为西方国家输出价值观新工具。
人工智能朝向不确定的领域与未来
两百多年前的工业革命深刻改变了人类的生产和生活方式,而此次人工智能跨越式发展,也正在起着类似作用。根据海尔布罗纳和米尔博格在《经济社会的起源》一书的研究,“工业革命是历史上的一个伟大转型时期,在此期间,制造业和工业活动变成主要的社会生产形式。”而在此之前,人们主要社会生产形式主要是农业和商业,工业革命让技术成为关键动力,产生了新的工业企业家,人们从田间地头走进了工厂,形成了以资本为主导的市场社会,等等。如今,人工智能革命正在兴起,也在不断重塑传统的产业模式、商业形态以及人们的工作和生活方式,特别是人工智能的关键技术的突破性创新,往往会成为社会大转型的杠杆。
更重要的是,在资本逻辑推动下,不断迭代的人工智能技术到处寻找可以颠覆的产业,将其推向不确定的领域和未来。ChatGPT火热出圈迅速点燃了资本市场,不少公司正准备利用掌握的大数据和人工智能技术改造自己同时改造世界,人工智能领域的设备、服务器、人才需求暴增,大有不抢占人工智能领域高地不罢休的势头。正是这种众人生成的“历史合力”,不知道会将人工智能推向何方。
人们常常从时间序列的不确定性来看待人工智能的未来,这种观念背后有一个基本假设:即过去未来存在差异,过去经验无法完全指导未来实践。正是过去和未来存在不一致性,一些出乎人意料的事件就可能会让人措手不及。但人们很少注意空间序列的不确定性,与时间序列不确定性类似,不同空间的事件存在巨大差异,此处经验往往不能指导彼地实践。特别是在全球化高度发展的今天,此地发生一些出乎意料的重大事情可能会立刻引发全球性危机。人工智能技术不仅仅将过去和未来的差异放大,进而放大和延长危机链条,而且将不同空间的差异放大,加速某地危机在全球范围内扩散速度和范围。例如,一些军事冲突利用人工智能技术,生成“人工智能”的战争或“算法战争”,不仅仅将战争的烈度推向新高度,而且多维度影响其他地区的生产和生活。在人人持有智能手机的情况下,任何一地突发性事件都很可能在社交媒体上“上热搜”,进而引起一系列连锁反应。
因此,习惯于前人工智能时代处理各种危机的人们,根据时间序列的不确定性基本假设,可能会因为人工智能技术破坏性创新而无所适从。同样,由于人工智能不断增强的算力,迅速集聚各类空间突发性事件特点,人们可能也无法做出迅速反应,进而生成一连串危机。但无论如何,人们还需要以更加开放的思路去探索管理人工智能时代不确定性的经验,进而避免技术的异化带给人类社会的伤害。
工业革命时代的人们,往往无法全面感受和意识到工业革命的意义和价值。身处人工智能时代的我们,也可能无法全面认识到人工智能革命的变革方向和价值。但是毫无疑问的是,作为个体,我们可以从不同角度体验其带来的种种变化,并为其带来新类型的不确定性探索自己的方案,进而寻找符合自身发展的新出路。譬如当下正火热的对话机器人,我们至少可以重新换个视域来认识它,并利用它带给我们新思维、新模式,更新我们的知识体系。但我们不能陷入技术“拜物教”泥潭之中,更不能像那个比利时男士,将自己的疑惑和生命丢给机器人“伊丽莎”,认为它有“自我意识”,进而让它判定我们自己的命运。
人工智能技术快速发展,正在形塑人们日常生活和生产各个方面,加快知识更新和传播的速度,深刻影响以价值观为底层社会文化和伦理观念,从时间序列和空间序列多维度产生各种不确定性的后果。为此,我们在利用人工智能为人类谋福利的同时,也要防止有人利用技术工具“作恶”进而破坏人工智能产业良好发展生态。