LLM是目前最火的科技词汇。乐观的人认为很快就会有通用的人工智能。但现阶段来说,LLM还没有宣传的那么神奇。那么究竟什么才是LLM的本质呢?
LLM的本质其实就是矩阵数据库。即然是数据库,当然是越大越好。因此,那些为了在本地运行而限缩的数据库,必然会在损失精度的同时损失准确性。我们可以将LLM想象为一部百科全书。完整的版的百科全书,和精简版的,虽然都是百科全书,内容也都是正确的。但是二者的详尽程度,必然不同。
LLM分类
LLM分类有很多种,比如按照功能,有通用类型的、翻译类型的、专注任务类型、偏重于编程的类型的等。但我认为对于普通人来说,最好的分类,是将它分类为联网型和非联网型。
联网型
联网型,顾名思义,就是在回答问题时,LLM会先分析你的问题,然后根据你的问题去搜索引擎搜索,然后利用LLM的归纳总结功能,将排名靠前的搜索结果的网页打开并总结,最终综合这些内容,来回答你的问题。
联网型的优点是实时性强,因为是实时搜索,即便是最新的内容也都可以找到。缺点是,如果LLM对于的问题理解错误,或者搜索到的内容质量不高。回答的质量也就不高。
非联网型
这个是目前的主流形式。LLM的开发商定期更新大模型,你问的问题,如果在它的范围内,它就能回答你。
非联网型的优点是对于它知道的内容,回答质量较高。缺点是,对于它不知道的内容,它就会胡乱回答一气。比如你问它最近有什么电影上映。它回答的可能是一年之前的。
LLM的局限
对于普通的人来说,LLM的最大局限性,就是LLM其实不知道它回答的内容是否正确。是的,它不确定自己回答的内容的是否正确。它只是将它计算过后的最可能正确的结果进行输出。
不过,这其实也可以理解。因为对于普通人来说,自己考试的时候,自己答题,有时候也是不知道是否正确,只是将自己以为正确的答案写出来。
所以,对于LLM,我们态度应该更像是面对人类,而不是面对计算机。即LLM的回答有可能是错误的,而不是一定是正确的。
如何理解LLM
我们可以将LLM理解为是一个人类。它的容量大小,就相当于一个人所掌握的全部知识。因此,容量越大越好。但是容量越大,运行时需要的资源越多,运行速度就越慢。因此,今后一段时间内,提升运行速度,是提升LLM的最佳办法。只有运行速度够快,才能跑更大的模型,模型才能更智能。
但是同时,我们也要意识到。LLM作为单独的一个“人”,它同样存在人的局限。它的回答不一定是正确的。对于它不了解的问题,它甚至可能胡编乱造一个答案。因为它只是将最可能正确的结果进行输出。如果没有正确率高于80%的结果,那么5%的正确率也可能是最高的,一样会输出。因此,对于LLM的一切处理结果,我们都需要审慎对待。