今早发现copilot update更新的时候突然变慢了,速度只有10KB/s,于是跑去找ChatGPT问了问,为什么我终端已经设置了all_proxy,但是copilot update的时候却没有使用?
ChatGPT和我说,这是因为copilot这种有时候只会使用环境变量,我需要设置的是http_proxy和https_proxy。我设置好之后,更新了copilot,这下有500KB/s的速度了。
两个意外收获
再次打开copilot,对话后我发现,默认的模型变成sonnet-4.6了。我很意外!因为我是中国用户的原因,很久以前就没法使用任何Claude的模型,只能使用OpenAI的。之前我虽然听说如果VPN开启全局模式也能做到,但是我嫌麻烦,就没有弄。
此外,我还发现,现在copilot响应速度快了很多。之前我就觉得copilot的gpt-5.4比OpenAI Codex app里的慢很多。我还以为是copilot的问题。因为我问ChatGPT为啥copilot比Codex的慢,它还给我解释的头头是道,什么copilot搞了负载均衡,额外会加载其他内容,还有Codex可能是独享的,copilot的是共享的。不过从这次改变可以知道,其实原因并不是ChatGPT说的那样,就是因为原本的代理设置不被copilot支持导致的。我们应该警惕大模型的回复,有的时候它说的也不一定对。