肇鑫的日常博客

日常

奔跑吧第12季第2集游戏规则探讨以及游戏设定的思考

昨晚播出的奔跑吧第12季第2集规则描述简单,但是实际上要玩儿起来还是挺有意思的。当然,这期的演员由于自身的原因,没能很好的利用起来这些规则。所以从技巧的角度来说,这个规则完全被他们浪费了。

如何做才对“好人”一方更有利?

游戏中,3颗红豆的被认为是“好人”,2红1黑的被认为是坏人阵营。游戏规则:

  1. 共10人,其中好人7人,坏人3人。
  2. 好人和坏人都可以搜集火柴,然后投票,7根火柴可以燃烧某一个人的一个球。这个球由投票的人自由选择。红球被燃烧冒红烟,黑球冒黑烟。
  3. 每一轮,只要选择用火柴烧球,那么这一轮结束时,所有人需要轮换一轮球。规则是从自己左手边的那个人那里抽取一个球。
  4. 游戏分为前期和后期。
  5. 后期,坏人可以在相思小院通过7根火柴直接杀死一个好人。但,好人可以通过提前烧取自己一个球来保命,或者通过搜集玉佩来保命。

分析规则

  1. 在不考虑互相告知的情况下。总球数一共有30个,黑球3个。因此单次抽中黑球的概率只有3/30,即10%。而一旦轮转,每次有1/3的概率抽中黑球,连续3次抽不中黑球的概率是(1-1/3)^3=0.296,也就是说每轮坏人感染好人概率接近70%。
  2. 10% VS 70%,可以得出结论,只能烧个一次两次的,那么烧球是非常不划算的。好人的策略应该是攒火柴,但是不烧,留到最后一次烧,这样能避免坏人感染。如果好人认同这一点,坏人就只能自己烧球,也就是谁主张提前烧球,谁就是坏人。
  3. 此外,后期的规则中,表面的看好人烧自己的球是为了保命,但是其实烧球对于好人也是有极大好处的。因为好人有3颗红球,坏人只有两颗红球。因此,当好人选择全部烧球时,坏人只有两种选择,要么跟着烧球,要么选择不烧球。
    1. 坏人选择烧球,这会造成总球的减少,使得好人烧球的时候,烧到坏球概率大增。比如如果全员选择烧球,那么选择黑球的概率就会从10%,增加到3/20,即15%。
    2. 坏人如果选择不烧球,那他就暴露了。因为好人即使有玉佩,也应该选择烧球。因为这能增加好人烧坏球时的选中概率。

综上,好人应该尽量搜集火柴和玉佩,不投票,并且每一轮都烧球。而坏人最佳策略要想不暴露,也只能跟着烧球。并且同样不投票。这样两轮之后,场上的局面就会变成每个人都只有1个球,其中好人手里都是红球,坏人手里都是黑球。此时就可以投票了。好人把自己所有的火柴都投出去。只要能选中坏人,那就一定能选中黑球。

关于游戏设定的思考

游戏是木偶相关,说是有十个传奇的木偶。但是其中有3个木偶不是三颗红心,而是两颗红心一颗黑心。有黑心的木偶认为这么多年是人类在压迫和利用木偶,想要反抗。游戏中将这种木偶定义为坏人。

但这样的木偶真的是坏人吗?我们知道,人之所以能操纵木偶,是因为木偶本身是没有意识的。但是现在,黑心木偶变得有意识了。也就是说木偶本身没有意识的这个前提不存在了。新的前提是没有意识的木偶其实是还没有意识。从这个角度,人类对于木偶的操纵就变成利用和压迫。因此,对于有意识的木偶人类应该平等看待,而不是单纯的将他们认为是坏人。

今天购物的两件小事

小事1

最近喜欢上吃河南开封的兴盛德花生。一开始是买的大包装的,一包400克。要分好几次才能吃完。于是再买就换了一家,买小包装的。每次我都买五香+麻辣的混合装各1斤。买了两次,我隐隐觉得每次都是五香的比麻辣的多。并不是每样各一斤。

于是这次买的时候,我特意看看了一下购买选项,看到写的就是五香+麻辣混合1公斤,并没有说每个是1斤。于是我这次单独下单,每样1斤,而且特意注明,我发现以往都是五香的多,麻辣的少,这次不买混合的,希望两个数量一样。

到货之后,我把花生拿出来一数。五香30包,麻辣25包。这明显差太多了。于是我找客服理论。客服还视图遮掩过去,说他们这个是称重的。我说称重也不能差出去5包啊。都20%。

既然她说是称重的,那我就称重。我小米体重秤称重,减去我的体重。结果五香1.3斤,麻辣0.8斤。因为小米体重秤是体重秤,精准度只有0.1斤。但也可以看出,的确是五香的多了,麻辣的不够。客服不愧是标准河南人,就是执拗,证据都摆在面前了。还和我狡辩说总重量是够的。我说,我是单独下的两个单子,其中一个不足。按照消费法,需要赔偿。她说可以换货或者退货退款。我说我选择赔偿。最后她说只能赔1元。我说按照消费法,最低的赔偿是1000元。我说我本来也没有非要1000元,但是你一开始就不承认有少,还非让我称重。而且你们每次都少,之前我只是没数,就算了。你们都是惯犯。而且,5袋,按照你们的价格至少也是3元。最后赔了2元。我和客服说,我以后买,如果还是这样,我还得找你要赔偿。她承诺找仓库反应这个问题。

消费者说:五香的卖得不如麻辣,那么你可以调整生产计划,少生成五香。而不是糊弄消费者。河南真是不会做生意。

小事2

今天美团买了7样东西。取货时已经装好了,一大包我就拿回来。结果发现多了一样“爆浆鹌鹑蛋”。给团长打电话,和她说如果着急就来我家拿,如果不急,我就明天给她送过去。获得了感谢。

消费者说:不是自己的不能要,这是基本素质。但是就是有人缺乏这种素质。之前我又一次点美团外卖,点的熟食猪头肉之类的。结果外卖员送错了。我给他打电话问他送哪里去了。结果他还送外卖太多,找不到了。最后外卖配送的站点的负责人打电话给我道歉,让我重新下单,微信里里给我发了红包作为补偿。而那个出错的外卖员最终也没有出现。我猜是不是羞愧地离职了?自己点没点外卖不知道吗?心安理得的吃了。这种人真是没有素质。

Ollama运行本地大模型的一些技巧

使用Ollama也有一些时间。从小白阶段,只懂按照命令行运行。到现在会自己从抱抱脸选择官方没有的模型自己进行导入。甚至创建局域网内部的服务器,使用应用调用Ollama的API。是时候总结一下Ollama本地运行大模型的一些技巧了。

运行方式

终端运行

新手一般会使用

ollama serve

启动Ollama,并使用ctrl+c结束运行。

以服务方式运行

我们还可以使用服务的方式运行Ollama。这样Ollama在系统启动之后就会在后台调用,可以随时调用。

brew services start ollama

需要注意的是,如果你是了此种方式。那么每次ollama升级之后,需要使用

brew services restart ollama

重新启动Ollama服务。

服务局域网

默认情况下,Ollama只会关注localhost的11434端口,因此只能从本机访问。局域网的其它电脑无法使用。我们可以修改设置,然后重启Ollama服务。这样局域网内的其它电脑就都可以使用Ollama了。

launchctl setenv OLLAMA_HOST "0.0.0.0"
brew services restart ollama

我们可以这个命令,查看Ollama运行的状态

lsof -i -P | grep ollama

如果你看到的是这个,就证明成功了

ollama      602 zhaoxin    3u  IPv6 0xb435894e8a5320f      0t0  TCP *:11434 (LISTEN)

如果你想固定上面的设置。那么就需要修改/opt/homebrew/opt/ollama/homebrew.mxcl.ollama.plist文件,为它添加:

<key>EnvironmentVariables</key>
<dict>
    <key>OLLAMA_HOST</key>
    <string>0.0.0.0</string>
</dict>

然后停止Ollama服务,并重新开启。注意,我发现用restart不行。必须先stop,然后重新start。不然重启之后,就还是只有localhost。

brew services stop ollama
brew services start ollama

https://github.com/ollama/ollama/blob/main/docs/faq.md
https://github.com/ollama/ollama/issues/3581

模型选择

模型的选择首选是基于功能。不同的模型擅长的领域不同。比如某些模型不支持特定的语言,某些模型具备识别图片的能力,有些模型更擅长编程等。

其次就是版本的选择。总的来说,就是越小的模型,运行时的反应越快,但是同一个模型,越大的模型的输出结果越好。因此,我们需要要在结果准确性和推理速度中作出权衡。一般来说,如果你的电脑只有8GB内存。那么你也就只能选择7B以下的模型,默认模型能跑就不错了。而如果你有16GB内存,那么你最高可以运行13B的模型。而7B模型,也可以选择参数更高的版本比如7B-4bit-K_M之类的。它会标准的标准的4bit性能要好一些。

导入模型

Ollama是llama.cpp的。它支持所有gguf格式模型文件。因此我们在抱抱脸上搜索模型名+gguf,就能下载Ollama官网没有的模型。然后可以通过创建Modefile文件的方式进行导入。格式就是:

FROM gguf文件地址

然后执行

ollama create 模型名 -f Modefile

等一会,这个模型就被导入Ollama了并能使用了。

API调用

下面这段只有程序员需要。

仿OpenAI调用

Ollama支持OpenAI的API的兼容调用方式。这样可以更好复用代码。不过这种方式调用目前只支持chat api的调用。并且不支持Vision。

https://github.com/ollama/ollama/blob/main/docs/openai.md

因此如果你使用下面这两个API的时候,还是需要Ollam的自有API。

ListModels调用

https://github.com/ollama/ollama/blob/main/docs/api.md#list-local-models

Vision调用

https://github.com/ollama/ollama/blob/main/docs/api.md#generate-a-chat-completion