V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
nananqujava
V2EX  ›  机器学习

学习 AI, 跑下模型, 应该用什么 N 卡?

  •  
  •   nananqujava · 47 天前 · 1827 次点击
    这是一个创建于 47 天前的主题,其中的信息可能已经有所发展或是发生改变。
    看了下 5060TI 5070TI 5080 都是 16G 显存, 4090 和 5090 又太贵, 计算速度还可以忍受慢一点 , 跑 AI 应该是显存决定能不能跑起来吧, 先跑起来再说的情况下, 买哪个?
    23 条回复    2025-05-08 13:32:20 +08:00
    joyhub2140
        1
    joyhub2140  
       47 天前   ❤️ 3
    取决于你想跑什么模型,再考虑入手什么硬件,而不是先考虑硬件。
    ihainan
        2
    ihainan  
       47 天前
    你要跑什么规模的模型,愿不愿接受量化。
    chiaf
        3
    chiaf  
       47 天前 via iPhone
    便宜的上 2080 魔改

    不用显卡就买高配 Mac mini (硬盘 1T 即可,内存拉满)不到两万。可以跑 70b 的模型。
    nananqujava
        4
    nananqujava  
    OP
       46 天前
    @chiaf #3 看了下 2080 魔改的评测 好像不行
    nananqujava
        5
    nananqujava  
    OP
       46 天前
    @joyhub2140 #1 作为想入门的新手, 我也不知道
    dji38838c
        6
    dji38838c  
       46 天前
    业余人士没必要学,没必要自己跑
    意义何在呢
    nananqujava
        7
    nananqujava  
    OP
       46 天前
    @dji38838c #6 好的, 那就在家睡大觉呗
    fox0001
        8
    fox0001  
       46 天前 via Android
    是的,显存是优先考虑的条件。玩过 3090 ,24G 显存,性价比可以。
    renmu
        9
    renmu  
       46 天前 via Android   ❤️ 2
    云主机能玩到你腻
    nananqujava
        10
    nananqujava  
    OP
       46 天前
    @fox0001 #8 3090 怕买到矿卡
    nananqujava
        11
    nananqujava  
    OP
       46 天前
    @chiaf #3 是我侦查的不对, 2080 魔改是最便宜的方案
    tool2dx
        12
    tool2dx  
       46 天前 via Android
    AI 分两种,聊天和绘图,只有 llm 才对显卡性能没追求,仅仅需要大显存。
    绘图需要买 30 系以上的,因为支持很重要的 bf16 浮点格式。20 系是不支持的。
    michaelzxp
        13
    michaelzxp  
       46 天前
    4090 48g 吧
    irrigate2554
        14
    irrigate2554  
       46 天前   ❤️ 1
    2080ti 22g 真可以,我日常就跑 32B 模型,Q4_KM 量化
    mumbler
        15
    mumbler  
       46 天前
    2080 魔改 22G 有什么不好,跑语言模型最优选择,还支持 nvlink ,可以组个 44G 的,不到 1 万
    mumbler
        16
    mumbler  
       46 天前   ❤️ 1
    @xausky #14 gemma3 刚刚发了 qat 模型,18G 可以跑原本 55G 的 27B 满血,比 32B 的 4 位量化强得多
    nananqujava
        17
    nananqujava  
    OP
       46 天前
    @mumbler #15 主要是怕买到显存虚焊的, 显存很容易出问题, 虽说可以修, 但闹心
    mumbler
        18
    mumbler  
       46 天前   ❤️ 1
    @nananqujava #17 买两块也远远比 3090 ,4090 便宜,没有更好选择了
    t41372
        19
    t41372  
       46 天前
    可以租云服务器或用 api 入门,或是看你现在有什么用什么。可以从小模型入手,多玩会儿就知道你想跑的模型需要什么样的硬件了。
    rogerer
        20
    rogerer  
       46 天前
    不如买 m 芯片,显存够大
    irrigate2554
        21
    irrigate2554  
       46 天前
    @mumbler 昨天已经跑上了,还有 mistral-small3.1 据说也很强
    Freecult
        22
    Freecult  
       29 天前   ❤️ 1
    只是学习 AI ,弄个 NV 卡就行。无所谓内存。因为学习 AI 不等于 “用 LLM 学习 AI”,也不等于“学习 AI 应用”
    CNN TRANSFORMER VAE DIFFUSION 之类的想搞明白,用不着大显存。有支持 CUDA 的 12G 就绰绰有余了。6G,8G,10G 无所谓。能跑 CUDA 是必须的

    数理统计和机器学习的理论掌握了, 比大显存有用得多

    非要和 LLM 较劲,查一下这个:
    https://www.llamafactory.cn/tools/gpu-memory-estimation.html
    决定跑啥模型
    如果 4090 觉着贵,只有 2080 22G X2 +NVLINK
    44G 跑的模型范围稍微大一些
    nananqujava
        23
    nananqujava  
    OP
       29 天前
    @Freecult #22 谢谢
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2656 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 29ms · UTC 11:44 · PVG 19:44 · LAX 04:44 · JFK 07:44
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.