肇鑫的日常博客

日常

大模型其实不具备思考功能,AGI是一场精心的骗局

全世界都被骗了,AGI只是一个传说,大模型天生就不具备思考的功能,目前我们经历的是一场席卷全球的营销事件,是少数精英,通过资本,通过宣传,裹挟大众的一场巨大的泡沫。最终的结果就是一次财富的重新分配,但是最终AGI也不会到来。

为什么我说大模型其实不具备思考功能?

因为连人类自己都没有搞清楚思考是如何进行的,又如何能发明出会思考的机器呢?与思考最接近的学科是脑学科,脑学科目前只能做到定义什么是思考,并且通过仪器检测到人类在思考时大脑哪些区域处于活动状态,以及活动的强弱,至于它们之间交互的原理,目前都还不得而知。而大模型本身的思考,只是对于人类思考的部分模拟,它的本质还是文本语言推理。

什么是思考?什么是自动化?

对于普通人来说,自己给大模型下达了任务,大模型完成了,就认为大模型思考了。但是事实真的如此吗?一开始的时候,我们除了下达任务,还需要说出具体的步骤,特别是,如果你具体的步骤说得越准确,大模型给出的结果就会越好。这显然和思考不沾边吧。如果我们只是简单的说完成某项任务,用最佳的方式去处理,然后大模型就能做到和我们细致描述步骤的指令达到相同的效果,那才是大模型会思考。实际上,你所说的最佳方式,大模型并不能像你说的详细步骤的描述一样去理解,因此,大模型并没有在思考,它只是自动化。

实际上,大模型的运行是这样,对于所有的问题,它内部有一套提示模板,然后它配合你所说的问题,整合在一起,作为模板,然后进行推理,并执行。也就是说,它就说按照模版推理,这其实就是自动化。

大模型不能思考,那大模型还重要吗?

重要。虽然大模型不能思考,但是自动化也是很有用处的。同样可以节省我们的时间。但是问题就是,同样的一个大模型,它所发挥出来的性能,受限于使用的人自身的水平。因为大模型的所掌握的知识,你不去问它,它是不会开启的,这也就是为什么大模型在数学家的手里,能够解决之前未解决的数学难题。但是在你我手里,解决一些普通的题目的时候,都很费劲。因为你我缺乏描述题目所需要具备的知识。而只是泛泛地描述,大模型并不能精准的了解题目本身。连题目本身都不了解,那么想要解决就更困难了。

战术手册的重要性

这让我想起了战术手册这种东西。所谓战术手册,就是将做某件事的步骤拆解,给出最佳的步骤以及可能遇到问题的解决方案。它的好处是使用的人只需要根据目前遇到的问题,在战术手册中寻找相应的问题,找到了之后,就不必自己思考,只需要按照战术手册上的1、2、3、4进行套用,然后根据结果选择分支,就能够获得最佳结果。这些结果虽然不一定是和思考之后获取的最佳结果完全相同,但是却接近。这样,一个普通人有了战术手册,就仿佛成为了一名智者。但实际上,普通人就是普通人,智者就是智者。重要的是战术手册,和编写战术手册的智者。

这和如今的大模型很像,普通人如果拿到大模型的战术手册,也可以接近智者。但是智者就是智者,有了大模型,普通人和智者的差距并没有缩小,反而更大了。普通人最多能从网上找到一些智者发布的零散的战术手册的一部分,但不知道是不是真的有用,甚至不知道是不是已经过期了。