V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
WessonC
V2EX  ›  Local LLM

求本地部署的 AI 推荐~

  •  
  •   WessonC · 8 天前 · 1062 次点击
    如果我想搞一个本地部署的 AI ,喂给它公司产品的所有资料,比如说明书之类的 PDF,PPT ,达到一个知识库的作用,有什么推荐吗?能详细一点最好,谢谢。
    最好也有硬件的大概需求。
    大概有 1-200 个产品。
    11 条回复    2025-06-01 20:36:08 +08:00
    iv8d
        1
    iv8d  
       8 天前   ❤️ 1
    ollama
    murmur
        2
    murmur  
       8 天前
    200 个产品本地部署你得几套 deepseek 才够用哦
    coefuqin
        3
    coefuqin  
       8 天前
    很拉,没效果的。
    dualist
        4
    dualist  
       8 天前   ❤️ 2
    你要做的是把知识库的每个文件元数据提取出来,然后存到 db 或者非关系数据库,暴露个接口参数让 AI 调用搜索结果,解析结果返回数据就行而不是全部喂给 AI
    zxcvbnm001
        5
    zxcvbnm001  
       8 天前 via iPhone   ❤️ 1
    可以选择 rag ,目前看微调还是不如 rag 稳定
    luny
        6
    luny  
       8 天前   ❤️ 1
    ollama+dify
    444571840
        7
    444571840  
       7 天前
    本地 AI 不是特别推荐,当玩具玩玩可以,生产力就算了
    YsHaNg
        8
    YsHaNg  
       7 天前
    @murmur 不是 啥玩意为啥要 duplicate deepseek ?模型权重还有按套算的?
    murmur
        9
    murmur  
       6 天前
    @YsHaNg 国内现在买不到那种非常强的推理卡吧,你想跑并发不就得多部署几套
    YsHaNg
        10
    YsHaNg  
       6 天前 via iPhone   ❤️ 1
    @murmur pcie 槽够多就行 200 也不是很大 多插点卡完事 这里也没什么并发需求 重要的是权重+上下文能塞进显存里 r1 模型卡 128k 属实不适合干这种事 实际召回率更低
    happybabys
        11
    happybabys  
       5 天前   ❤️ 1
    模型没有最强的,只有最适合的,本地部署是正确的选择
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2880 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 22ms · UTC 03:55 · PVG 11:55 · LAX 20:55 · JFK 23:55
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.