当前位置: 主页 > 技术方案

人工智能霍金-人工客服智能客服

发布时间:2023-06-01 22:10   浏览次数:次   作者:佚名

的滞后效应。

麻省理工学院数字经济倡导行动主任Erik Brynjolfsson教授认为,这种滞后效应源自三个方面:

第一,通用目的技术自身从发展到成熟,再到最后提高国民经济生产率增长速度,会经历一个较长的时间周期;

第二,若想充分全面地发挥出通用目的技术的潜力,还必须依赖于与其相关的其他互补式创新技术的大力发展,这样才可能激发出组合式创新并推动生产率的大幅度提升;

第三,通用目的技术的发展需要极为耗时的额外创新和投资,而为了获得通用目的技术的好处而跟上技术的加速发展,社会组织与机构可能需要经历长期的内部重构方可适应。

尽管我国人工智能的发展势头迅猛无比,但依旧处于初级阶段的基本行情并没有变,行业规模占国民经济比重尚不足1.5%。这也就意味着,作为一项通用目的技术的人工智能将与较低的生产率增长水平长期并存。

可若干年后,一旦人工智能技术进一步成熟,同时其他相关的互补式创新技术也得以提升,社会组织与机构的内部重构完成,届时必将迎来一个爆发式的生产水平提升阶段。

正如Brynjolfsson教授所说:

“我们在自动驾驶汽车项目投入了时间和金钱人工智能霍金,但因为它们还没有上市出售,这就不被认为是创造了生产力……虽然我们现在可能看到比较低的生产力,但在将来我们能看到更高的生产力数据。”

这一点,同样可以从历史上找到证据。

在1890~1920这30年间,除了发明了电动引擎和灯泡外,人们似乎没有看到大幅度的生产力提升。工厂大多在信息技术时代(上世纪70年代)才用电动引擎替换了蒸汽动力,但一座工厂的基本结构并没有发生变化,这种结构被设计成围绕着一个大的中央电源运转。

事实上,当“小的电源动力分布在整个工厂”这一模式开始流行时,已经过去了20~30年。随着流水线生成的普及,制度和生产方式也在发生变化,这反过来却促成了19世纪20年代的生产力大发展与大提升,同时也充分印证了生产率增长与通用目的技术发展之间滞后效应是真实存在的,更加支持了“生产率悖论”的合理性。

既然国家整体生产率水平尚且没有因人工智能而发生明显提高,那么人们姑且可以松一口气:虽然微观上看,不少领域的工作已经可以由人工智能代劳了,但是宏观上看,大面积的失业目前还不至于到来。

话说回来,像人工智能这样的新技术的确能代替人完成某些任务,甚至在某些领域完全可以取代人力进行智能化工作,但也要看到,这样的新技术同样会导致产出的增加、诸多配套产业的发展与新兴商业模式的出现,随之而来的便是无数新增的就业机会。新技术可以把从生产领域替换下来的员工转移到新的互补领域中,通常这对整个社会来讲都是有益的。

说白了,长期来看,人工智能必然会“吃掉”相当一部分就业岗位,但也会同时创造新的就业岗位,那些因人工智能而失业的人们,似乎也无需为自己的才能无处安放而过于担心。

然而,二三十年后,新增的就业岗位数量是否能覆盖减少的数量?到那时,失业的人们是否能在短时间内快速适应角色的转换,并胜任新的工作?新的就业市场是否会比今天国家的就业形势竞争更为激烈,求职更为艰难?

谁也说不准。

4

还没有结束。

人工智能给人类带来的冲击,就像它的强大一样超出我们的想象。除了失业的风险外人工智能霍金,还有“三座大山”在等待我们去搞定:

1. 收入分配

不少研究显示,伴随着20世纪70年代信息社会的来临,技术的飞速发展引起了收入分配的加速恶化,大量的财富聚集在越来越少的人手中,而且还有愈演愈烈之势。

究其原因在于,各类生产要素的边际收益水平是不同的,资本与技术的边际收益高于劳动已是众所周知。于是,劳动工人的收入增速必然会落后于资本与技术的拥有者,久而久之,收入分配不公的态势会越来越明显。

事实上,同样作为新技术的人工智能,其发展势必也会面临这一问题,即大头的收益只是越来越被少数的技术精英攫取,大部分的民众非但没有从发展人工智能之中获得收入的增长,还要承受着随时可能会失业的压力。倘若这些风险持续累积,或许还会对社会长久稳定造成负面影响。

2. 政治权威

纵观历史,在任何时代,不管是何种体制、何种性质的政权,其背后权力实施的唯一主体都是人类。但是,按照目前人工智能的发展势头,倘若日后拥有自我意识和情感的“超级人工智能”得以崛起,那么“代替人类行使行政权力”的戏码便极有可能会上演,到时必然会威胁到人类权力的权威性和合法性。因此,当未来新的行政权力出现时,如何从法律层面清晰地界定不同权力实施主体的边界尤为关键,而最为重要的是如何保证人类行使权力的正当性,以防止机器威胁到人类的生存。

同时,人工智能的存在还可能会颠覆传统的政府治理模式。毋庸置疑的是,人工智能在商业领域应用进度要快于政府。当商业领域广泛使用人工智能,而政府却未能紧随其后,那么技术落差便会逐日增加,这将对政府造成巨大压力。所以,如何基于人工智能技术便捷政务流程,优化治理模式,是当前又一大重点难题。

3. 监管与伦理

埃隆·马斯克曾经提出,人工智能有可能会成为人类文明的最大威胁,呼吁政府快速采取措施,有效监管这项技术。这与霍金的言论多少有些异曲同工之妙。

从目前来看,政府需要对人工智能加强监管的领域主要包括两方面:

一来,人工智能的大部分算法虽然高效,却缺乏透明度,且该特性不会随着技术发展而彻底改变,而这也给责任认定带来了天然的障碍。于是,以往通过企业透明披露产品和系统信息以便政府监管的做法,在人工智能领域是行不通的。

以自动驾驶汽车为例,人工智能系统作为一个整体完成最终的控制动作,一旦发生人工智能系统的错误操作,除了明显的传感器故障,人们无法清晰定位问题原因,也不会立即明确该如何调整系统,更不用说如何有针对性地提出意见,并判定责任所在。

二来,人工智能很可能会在不久的将来挑战现有的法律体系,冲击社会的伦理道德。比如说,机器伤害了人,应该由谁来负责?当机器人具备自主意识后,是否会成为民事主体?到底何为生命?“人”的定义是否会发生变化?“人”与“非人”的界限到底在哪里?如何确保人工智能遵循人类的道德与价值观,保障人类的基本人权?

路漫漫其修远兮,我们与人工智能的赛跑才刚刚开始。

5

如何完成人工智能技术攻关,是对人类头脑和意志的要求;而怎样融洽地与人工智能和睦共处,则是对人类智慧与灵魂的考验。

好在我们还有时间,尽管人工智能可能不会等待我们太久。

参考前文的讨论,不妨给自己设定一个期限:30年。

30年后的21世纪中叶,源自人工智能的国民生产力爆炸式飞跃很可能会得以应验,而关乎到民生、经济、社会、政治、伦理的诸多应对措施,大概也该兑现得差不多了。

那时的人们,一定也会时常谈起那位轮椅上的物理巨匠,谈起他留给世人的关于人工智能的“遗言”,就像我们今天会谈起爱因斯坦与他的相对论一样。“人工智能威胁论”,到底是未雨绸缪还是危言耸听?相信这个今天我们无法回答的问题,谜底会在30年后自行揭开。

以上是关于网络通信中-30年后,再来看霍金的“人工智能威胁论”的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

智能人工气候箱说明书_人工智能霍金_人工客服智能客服

[1] [2]

人工客服智能客服_人工智能霍金_智能人工气候箱说明书