为 Bob 写了个插件,支持 ollama 服务 bob-plugin-ollama

2024-03-12 20:43:51 +08:00
 hqwuzhaoyi

https://github.com/hqwuzhaoyi/bob-plugin-ollama

但是 llama 的翻译能力有点捉急,各位大佬有没有好主意

1723 次点击
所在节点    分享创造
5 条回复
unclemcz
2024-03-12 21:57:13 +08:00
试一下 qwen:7b 及以上,不管准不准,至少翻译出来的句子是顺畅的😃
hqwuzhaoyi
2024-03-12 22:09:47 +08:00
@unclemcz 哈哈哈,谢谢,我来试试😆
barryzhai
2024-03-14 22:58:45 +08:00
直接用 openai 那个接口就行,不需要写另外的插件,ollama 支持 openai 格式的 api
hqwuzhaoyi
2024-03-15 18:24:38 +08:00
@barryzhai 原来是这样,再去试试,奇怪的知识有增加了,我把教程剖出来
barryzhai
2024-03-16 03:23:57 +08:00
@hqwuzhaoyi openai 插件填写 ollama 本地 api 记得加上 v1/那个后缀,然后密钥随便写

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://yangjunhui.monster/t/1023001

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX