肇鑫的日常博客

日常

关于墙的碎碎念

7月13号的时候,突然翻不了墙了。但是同时http服务或者SSH服务却全都正常。我以为是我前一天升级了服务器导致的。于是选择了重装。结果还是不行。

经过了一天的调试,最终发现,原来是墙封了我的VPS的IP的433端口。没办法,之后重新又开了一台VPS。

又过了快一周的时间,我在推上看到有人说是因为开会的缘故。

记录一下,下一次就不用浪费这么多时间了。

苹果表不能解锁Mac的最佳解决方案居然是……

上个月苹果买的苹果表s9出现了一个诡异的问题。我的M1 Mac mini安装了双系统,macOS 14.5和macOS 15 beta。二者的内容基本相同,macOS 15 beta是全新安装,然后通过融合助手将macOS 14.5的数据和设置导入。

诡异的问题是macOS 15 beta下苹果表的解锁是好的。macOS 14.5的解锁却无法设置成功,提示Mac无法与苹果表通信。

我在网上找了很多办法,询问了AI,都没能解决这个问题。

这里我要说一下,苹果表一开始是可以和macOS 14.5设置解锁的。不过苹果表刚买来的头3天,电池电量掉的特别快,差不多一个白天电量就需要充电了。和网上说的能用一整天说法差太多。我自我分析之后,认为这是因为我配对了Xcode和手表,导致的。于是我在手表里将开发者模式关闭了。结果发现macOS 14.5就无法连接了。于是我又重新打开开发者模式,结果还是不行。

题外话,续航短的问题倒是解决了。目前佩戴24小时还能剩50%左右的电量。

最终解决

我最初想到的方法是重置设置,但是M1芯片的Mac没有单独恢复设置的方法,只能连系统一起还原。于是我想到,我可以尝试安装新版的macOS,看看安装之后会不会变好。因为14.5已经是最新的稳定版了,于是我选择升级到14.6 beta 3。安装之后,重新设置使用苹果表解锁,结果立刻就成功了。

我所理解的大语言模型(LLM)

LLM是目前最火的科技词汇。乐观的人认为很快就会有通用的人工智能。但现阶段来说,LLM还没有宣传的那么神奇。那么究竟什么才是LLM的本质呢?

LLM的本质其实就是矩阵数据库。即然是数据库,当然是越大越好。因此,那些为了在本地运行而限缩的数据库,必然会在损失精度的同时损失准确性。我们可以将LLM想象为一部百科全书。完整的版的百科全书,和精简版的,虽然都是百科全书,内容也都是正确的。但是二者的详尽程度,必然不同。

LLM分类

LLM分类有很多种,比如按照功能,有通用类型的、翻译类型的、专注任务类型、偏重于编程的类型的等。但我认为对于普通人来说,最好的分类,是将它分类为联网型和非联网型。

联网型

联网型,顾名思义,就是在回答问题时,LLM会先分析你的问题,然后根据你的问题去搜索引擎搜索,然后利用LLM的归纳总结功能,将排名靠前的搜索结果的网页打开并总结,最终综合这些内容,来回答你的问题。

联网型的优点是实时性强,因为是实时搜索,即便是最新的内容也都可以找到。缺点是,如果LLM对于的问题理解错误,或者搜索到的内容质量不高。回答的质量也就不高。

非联网型

这个是目前的主流形式。LLM的开发商定期更新大模型,你问的问题,如果在它的范围内,它就能回答你。

非联网型的优点是对于它知道的内容,回答质量较高。缺点是,对于它不知道的内容,它就会胡乱回答一气。比如你问它最近有什么电影上映。它回答的可能是一年之前的。

LLM的局限

对于普通的人来说,LLM的最大局限性,就是LLM其实不知道它回答的内容是否正确。是的,它不确定自己回答的内容的是否正确。它只是将它计算过后的最可能正确的结果进行输出。

不过,这其实也可以理解。因为对于普通人来说,自己考试的时候,自己答题,有时候也是不知道是否正确,只是将自己以为正确的答案写出来。

所以,对于LLM,我们态度应该更像是面对人类,而不是面对计算机。即LLM的回答有可能是错误的,而不是一定是正确的。

如何理解LLM

我们可以将LLM理解为是一个人类。它的容量大小,就相当于一个人所掌握的全部知识。因此,容量越大越好。但是容量越大,运行时需要的资源越多,运行速度就越慢。因此,今后一段时间内,提升运行速度,是提升LLM的最佳办法。只有运行速度够快,才能跑更大的模型,模型才能更智能。

但是同时,我们也要意识到。LLM作为单独的一个“人”,它同样存在人的局限。它的回答不一定是正确的。对于它不了解的问题,它甚至可能胡编乱造一个答案。因为它只是将最可能正确的结果进行输出。如果没有正确率高于80%的结果,那么5%的正确率也可能是最高的,一样会输出。因此,对于LLM的一切处理结果,我们都需要审慎对待。