V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
RatioPattern
V2EX  ›  Local LLM

32B 本地 vibe coding 有能用的模型吗

  •  
  •   RatioPattern · 5 天前 · 1598 次点击

    70B 以下 32B 左右的

    7 条回复    2026-04-14 17:12:38 +08:00
    ntdll
        1
    ntdll  
       5 天前   ❤️ 1
    这种小模型的话,还不如用一下美团的垃圾模型( LongCat ),虽然垃圾,但是还是比这种小模型强多了。 整两三个手机号,一天的量足够了。
    jark006
        2
    jark006  
       5 天前   ❤️ 2
    参数量太小,知识量和智力都不行,coding 能力不如 Openrouter 那些无限白嫖的模型。
    真生产力还得是 claude/gpt ,或国产的 GLM5.1/Qwen3.6plus ,其他模型就真的不建议用。
    如果只想白嫖,目前 trea 国版或 opencode 还能白嫖一些不错的模型。
    yulon
        3
    yulon  
       5 天前
    30B 左右也就勉强做个文章概括
    lujiaosama
        4
    lujiaosama  
       5 天前
    你不会想用的。质量不说,吞吐速度都受不了。
    rpish
        5
    rpish  
       5 天前
    @jark006 OpenRouter 免费模型差不多 10K 就限流了 Vibe Coding 就是狠狠烧钱
    diudiuu
        6
    diudiuu  
       4 天前
    可能会把你气死.

    最简单做个对比 gpt5-mini 写代码已经很拉了,你觉得本地 32b 会有比正常训练的 gpt5-mini 好?
    coefu
        7
    coefu  
       3 天前   ❤️ 1
    要用好,需要很多绝招。比较难搞,但也并不是搞不成。

    用多个 agent 并行,并且改造成隐式推理,用 LatentMAS 技术( https://arxiv.org/abs/2511.20639https://github.com/Gen-Verse/LatentMAS ),这个要改 模型的 transformer 架构,将 kvcache 流动起来,对显存也有挑战。 多个 agent 并行隐式推理,能保证速度,多个 agent 也能提升智能。

    就算是 Qwen3.5-35B-A3B 的 BF16 ,也有 70GB 了,长 context 的 kvcache + LatentMAS 本身也要显存,估计单卡 128G ,可以搞。
    关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2838 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 40ms · UTC 12:44 · PVG 20:44 · LAX 05:44 · JFK 08:44
    ♥ Do have faith in what you're doing.