ollama 支持的一些模型测试结果

87 天前
 feelapi

主要是代码重构方向的,4070 卡,8g 显存。

  1. ph4 效果最好
  2. qwq 卡死,死循环了,也有可能是我的提示词写的不好。不过输出速度还可以
  3. deepseek-61 14b, 效果差,不如 ph4

还是在线版本好,目前的元宝速度可以的。deepseek 充了钱还是慢

934 次点击
所在节点    Local LLM
6 条回复
b821025551b
87 天前
qwq 如果不是从 ollama 官网直接拉取,而是下载后自己写 modelfile 没写好,那就是会导致死循环的。
feelapi
87 天前
@b821025551b
我是 ollama pull 下载的,不知道是不是官网就有问题
NikaidoIsAGod
87 天前
ph4 问答速度咋样
b821025551b
87 天前
@feelapi 刚开始 ollama 官网还没上,我从 modelscope 上 pull 回来的就是死循环,官网上了之后我删掉原来的直接 ollama run qwq 是好用的。
feelapi
87 天前
@NikaidoIsAGod 速度不错,比本地的 deepseek-r1 快
coefuqin
86 天前
主要是你显存太少了。

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1117763

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX