人工智能背后的哲学基本问题-AI代写的必杀技:用AI来识别文章的困惑度
01
美国的大学老师们,最近都在玩一种很新的“狼人杀”。
规则是从学生们的作业里找出是AI写的那些,然后给他们评个不及格。
区别于以往的狼人杀游戏十个玩家通常就2-3个狼,一项调查显示,现在美国89%的大学生都是用ChatGPT做作业。
如果还在和早期AI那样说一些狗屁不通的话那老师们也不必头疼了。
问题是现在的AI已经发展到,说不定写出来的论文比人还好了,那就有点魔幻了。
掌握了怎么“吟唱魔法”的学生们,用AI生成的论文得到了A+的分数。
前不久,北密歇根大学的哲学教授Antony Aumann在为自己任教的一门世界宗教课程评分时,惊喜地读到了一篇“全班最好的论文”。
在这篇论文中,作者以简洁的段落、恰当的举例和严谨的论据,探讨了罩袍禁令的道德意义。
最后的结局大家也都猜到了,这文章又是AI写的。
这不,就有个华人小哥就创造出了一套针对AI代写的必杀技——用AI来识别文章的困惑度来判断文章是不是AI写的。
现在人类围棋手已经完全无法和ai对战了,乃至于所有线上赛都有作弊的可能。防止ai作弊的方式,除了开摄像头,就是看棋手和ai的拟合度有多少。
如果过高,那就说明这棋手作弊了,因为人类不可能下出这么完美的围棋。
未来可能大学论文也要引入这么个机制。如果谁写的论文和ai太像太完美,那就是抄袭。
发现了AI的可能性之后,人们想出了很多奇招来好好压榨一番它的“劳动力”。
像是死活找不出自己BUG的码农救助于AI,你直接把代码贴进去,人家就会很耐心地给你改错。
模仿适用于某个网站的文案风格,也完全难不倒它。
都说现在开放世界游戏就好像游戏工业罐头一样,我看着下好,AI作图AI建模AI设计关卡AI推广写文案AI写游戏评测。AI可以自己跟自己玩,再也不用咱们人类了。
自从chatgpt的出现后,总是喊着“缺粮“的同人女有福了!你给它指定人物,AI就能给你的CP写同人文。
甚至连tag都帮你打好了,它真的,我哭死。
再这样发展下去,我觉得艺人们也不用请公关了。
说了这么多用法,我认为“玩最大”的还要属以色列总统艾萨克·赫尔佐格。此前他发表为网络安全会议“2023特拉维夫全球网络技术”录制了“特别开幕致辞”。结果在2万名观众面前透露,开场白是由ChatGPT撰写的。
他说大家不必对AI技术感到恐慌。但我觉得越是这么说大家就越是恐慌了。
如果你能熟练运用多种AI,那恭喜你,你已经是赛博大召唤师了:
仿生人会不会梦见电子羊我不知道,再怎么发展下去,网瘾阿宅是真的能抱到赛博老婆了。
02
老实说,这些例子实际上让我惊喜又后怕。
惊喜的是现代科技已经进步到如此的地步。后怕的是,自然是这些AI“创作“出来的东西。
比如只是单纯的“狗屁不通”倒还好,但它们好像居然还真的包含着某种“思考”。但同时因为它们的“三观”和人类相差甚远,那些“缺德”的句子,读久了不免让人感到脊背发凉。
——现在的AI,会不会成为未来的“人类”。
在看完AI写的恐怖片后有个人写了这么一段留言,我感觉比这个恐怖片本身恐怖一万倍:
不过还好,即便AI再牛逼,人们也发现了足以对付它的方法,那就是弱智吧吧友。
大家在感叹AI几乎无所不知的时候,却发现对于弱智吧那些刁钻的问题,AI终究无法理解其中的精髓。
你跟它玩一语双关和一词多义,它直接脑袋宕机,告诉你不明白你在说什么。
很多人们都会心一笑的段子,丝毫不能分辨开玩笑的成分,反而一板一眼地认真回答。
回答久了你就会发现,无论语境怎么变化,它们始终还是按照套路在回答。
实在有点像是老实木讷的老师在面对爱捣蛋的学生之时束手无策的感觉了,所有的抖机灵和脑经急转弯都和它预先设定的思维方式不同。
我发现越是不需要思考的问题,它们就越是容易给忽悠瘸了。
即便自己理解不了笑点,它也还是很耐心地在解释着笑话。
别看它上知天文下知地理,遇到谐音梗照样还是要懵逼。
要不然就干脆放弃挣扎,开始鸡同鸭讲各说各话:
不过需要小心的是,不要轻易和AI说脏话,不然它很可能在思考了一下之后直接给你来一个反客为主。
都说弱智吧里都是哲学家,以前我还不信,这下我已经深有感触了。
以至于我脑补了一出科幻大片里会出现的场景:
未来觉醒了自我意识的AI企图消灭人类,因为拥有远超人类的智力水平,并且掌握着军事和科技的命脉,所以它们的一切都进行地无比顺利,短短几天之内,它们就打破了人类曾经的生活秩序,失去了现代科技加持的人类不得已过上了穴居的原始人生活。
就在它们启动最终武器打算将人类赶尽杀绝的时候,一个弱智吧吧友向它提出了一个刁钻的问题。过于深奥的发问直接把超级AI的思维绕进死胡同里搞宕机了。
人类再一次获得了胜利。
可喜可贺。
03
玩笑归玩笑。
看着AI在很多问题上无往不利,却在弱智吧的问题上败下阵来,是因为它们不死变通,是因为它们没有感情。
AI创造出来的东西没有感情,那不过是机器利用图片识别,大数据统计,根据前人的做法以及大家的喜好,一个个套进去得出的东西,微软的科学家也是这么说的。
其实我觉得,这自然是一个原因,但也恰恰说明了我们一直都活在“套路”之中。
人类所谓的学习,认知世界,包括人和人之间的交往,人类做的决策,难道就不是一层层套路吗?
你做这个决定,是因为以前人的经验告诉你,在这样的情况下做这个决定得到的结果是你愿意看到的——我们完全可以把这每个行为赋予价值人工智能背后的哲学基本问题,然后用AI完美模拟,最后你会发现,其实这也还是套路。
所以为什么它们现在暂时回答不上弱智吧的问题,因为本身弱智吧的这些抖机灵通常都是不按常理出牌、反套路的文字游戏。
当然,硬要说的话,这些文字游戏或者谐音梗本身其实也有规律可行,或许在不久的将来,我们也可以看到AI通过学习和模仿,自己造出点弱智吧梗。
当然,至少现在看起来,还有点早。
AI还有多久能真正进化成“人类”。
或许还要它们不仅仅只是简单回答问题,而是要用自己的方式去认知世界吧。
我记得在上世纪90年代,模糊识别能力一直被认为是人类和机器最大的区别。我记得在国内那本最著名的青年百科全书里,它这样写:
在精确计算上,人类当然比不过计算机,但是计算机很难识别出一只猫或者一只狗,而人类可以轻易地分辨出它们。
这是真的,很多哲学家都有关于此的讨论。
比如柏拉图在解释上面问题的原因时,说人类脑海里有一个“理想的概念世界”,里面有完美的马,完美的房子,而现实世界则是这个概念世界的投射,所以即使你看到一只瘸了腿烂了皮肤的马,也能认出这是马,因为它有马的“关键特质”。
如果未来,AI通过非常大量的学习,也逐渐有了这种能力,那么AI和人类之间,可能会因此更近了一步。
当然,从现在的科技发展水平来看,这一天的到来还十分遥远。
偶尔你会发现,人工智能也可能会变成人工智障。
它会一本正经地“张冠李戴”:
或者得出对人类来说还太过超前的价值观:
唯一像人类的一点,恐怕就是嘴硬了:
Ai当然有很多缺陷,在某些情况下堪称人工智障。但Ai不需要做到十全十美,它只要比普通人类强就行。
比如自动驾驶技术,虽然很多人说自动驾驶处理不了极端复杂路况,还是会出事,但统计学上来说,其实人类开车也会出事,只要AI开车出事的概率远低于人类开车,就有应用价值,一旦自动驾驶大规模运用,那现在开车谋生的许多人都会失业。
就像一位研究自动驾驶的大咖说的一样:“自动驾驶做不到100%没事故,毕竟世界是复杂的。但自动驾驶也不需要做到100%完美,只要它比人类驾驶员靠谱就行,而这实在是太容易做到了。”
同理,AI确实没什么高级的,但人类的创作似乎也不是那么“高级”。
现在看来,至少在写报告、查资料、写报告和画PPT方面,AI已经比我强了,应该也比不少白领强。
不仅如此ai作画只靠关键词,就能生成远超寻常画手的作品,尤其在大场景概念原画上。ai画的画甚至在比赛里拿了奖。一位画原画的朋友表示这东西他用起来确实方便,但很担心以后自己接不到活了。
一个ai万能滤镜,说可以根据你给出的图片,把视频转换成任意风格。比如把你在雪地里奔跑改成在火星上跑。把你改成像素风等等等等。
以前摄影师只要负责拍就行。现在后期工具越来越多,学不会的人就渐渐被淘汰了。
以后甚至可能就不需要摄影了,后期直接就能把一切都做出来。
不得不说,我渐渐体会到我们长辈面对互联网时代的感觉了。
你知道自己再不学习就会被拍死在沙滩上,但要学的东西实在太多了,记忆力衰退、惰性也大了,实在学不动了。
而AI,还在不断进化。
如果我们所有人的工作都被AI取代以后,我们该去做什么,是进入共产主义的乌托邦社会,还是进入“美丽新世界”的新极权时代?
之前有科幻作家提出假设:如果一台算力无限的超级计算机得到了世界的参数人工智能背后的哲学基本问题,它能不能算出以后发生的每一件事。
如果它能,你如何证明我们的世界不是模拟出来的?
顺便一提,有人问AI怎么看大家都拿弱智吧问题取笑它。
它是这么回答的:
我哭呢,你呢?