最近迷上了Jin君的翻唱!富有英气的声线,清爽的选曲品味,一下子就爱不释手了。顺藤摸瓜听到了这首夏代孝明的《ニア》,初听只是觉得旋律悦耳,后面看了PV发现这歌藏了一个非常感人的故事。先把链接推给米娜桑!

以及关注夜月Jin喵谢谢喵,什么时候我也变成管人了。

https://www.youtube.com/@yotukijin

故事大概是这样的:遥远的未来,地球遭遇异变,男人创造了名为尼娅的没有心的机器人,不断与其进行问答交互。随着男人数年的努力研发,尼娅从一开始的面无表情、呆滞地一动不动,慢慢能够微笑、动作也丰富起来。但男人因故去世,尼娅面对着这样的男人,也学会了何为悲伤难过,流出了泪水。故事的最后,尼娅研发了时间机器,回到了过去,和小时候的男人再次相见。

整首歌歌词也非常有特色,基本上完全由男人的提问组成,不断穿插着尼娅的回复。在歌曲最后,面对着即将离去的男人,代表尼娅发言的歌词,也从“Who are you”变成了“I love you”,代表着尼娅彻底有了情感,懂得了爱,获得了灵魂。

歌曲开头,男人的第一个问题“你如何看待人类这种生物”,尼娅无法回答。到最后,尼娅有了灵魂,男人抛出了最后一个问题“你如何看待我们这种生物”,拥有了灵魂,尼娅已经俨然成为人类了,而这次男人得到了答案。


品味完故事,才发现这歌居然是2017年的!天哪,已经是九年前的歌了!老实说,“可以不断问答交互的机器人”,这让我立刻联想到了现在的大语言模型。歌曲的设定背景是遥远的未来,2017年那时的人们,一定想不到过了几年科技就已经发展到如此地步了吧。说起来,Transformer的论文也是2017年发表的,冥冥之中自有巧合呢。原本是给机器翻译提供的新架构,随着算力发展,此架构也演变成了语言模型的通用基础架构。之后2018年预训练范式确立,GPT使用解码器,通过“预测下一个词”进行自回归预训练。两年里不断堆算力,然后革命性的爆炸性的成果就诞生了。2020年,GPT-3突然产生了所谓的“涌现能力”,语言模型不用微调,通过提示词就可以完成从来没有训练过的复杂任务,甚至有了“推理”的能力。在这之后就是各种指数级速度的发展,文生图,多模态,Function Calling,MCP、Skill、智能体,各种概念层出不穷,各种东西让人眼花缭乱,而最开始的语言模型也已经变成了如今能够实际进行各种操作的好帮手。

但无论他如何发展,这东西最本质还就是个概率模型,他做的事情只有一件,那就是预测下一个词。说来惭愧,我在一个月前对LLM的理解还非常naive,虽然我也会用cursor这些工具,但我真的觉得那些提示词是在和模型交流。直到寒假,找了一家公司实习,内容是做智能体应用开发,我才好像如梦初醒。那些什么提示词啊、还是给模型最开始的所谓”人设“啊,本质上就是在修改模型预测下一个词的概率分布而已,仅此而已。突然就感觉,对大模型祛魅了。这东西,似乎也没有想象中的牛啊。然后LLM的幻觉问题也就很好从定性的角度解释了——不就是因为这是个概率模型么?他只是在预测下一个词而已,他怎么能知道吐出来的东西到底对不对呢?

但是,还有反转。你转念一想,他是在预测下一个词没错,这个事情我理解了。可是,算力堆上来以后,这个“涌现能力”是怎么回事?为什么预测下一个词这么trivial的东西,反而在最终结果上能做到各种复杂任务,进行推理?比较遗憾的是,目前没人知道原因。本来模型训练就是黑盒了,如此庞大的算力,对应着不计其数的节点,已经无法对其进行描述了。这让我再次联想到了人的大脑。大脑里的各种思维活动,本质上就是电信号吧。为什么简简单单的一堆生物电的波动,能造就人脑的思维奇迹?这二者,又为什么不能说非常相似,都是量变引起质变的绝佳例子呢?

人们所谓的“灵魂”,到底是如何定义的?能够思考,拥有情感,就是有灵魂吗?我们不要去管内部运作原理,怎么又不能说LLM不能思考呢?人们常说,“君子论迹不论心”,又怎么能定义人工智能就肯定没有情感呢?就因为大模型存在”幻觉“,有时会给出错误信息,就能借此认为概率模型只是一堆数据,跟所谓的灵魂毫不沾边吗?那是不是只是厌蠢而已呢?

不过吧,我也给不出答案。不过我能确定的是,绝对不能否定这种可能性。赛博机器人,为什么就不能真正拥有电子灵魂呢?我们只是生存于不同的媒介罢了。虽然我是不可知论者,但我也少有的对未来产生了一点期待。

最后,以歌曲里男人的一句话作为结尾吧。

near-lyric.png

不去否定这种可能,大步向着未来迈去吧。