原文摘要
Jetbrains 发布Mellum-all 开源模型
7 月 31 日,JetBrains 在官方博客宣布推出 Mellum-all 并同步开源到 Hugging Face。与此前仅支持 Python 或 Kotlin 的版本不同,Mellum-all 覆盖 JavaScript、Go、Rust、Java 等主流语言,可一次性满足多语言项目的补全需求。
官方同时上线 VS Code 免费扩展,默认通过 Ollama 在本地运行 Mellum-all,也可一键切换到云端推理,该版本可在 VS Code、Cursor、Windsurf 等中使用。
IntelliJ 系列 IDE 用户可在 JetBrains AI Assistant 中勾选 “本地 Mellum” 选项,直接连接 Ollama 或 LM Studio 实例,离线完成代码补全,无需额外插件或脚本。
模型规格方面,Mellum-all 采用 LLaMA-style 架构,拥有 4 B 参数、8192 token 上下文窗口,预训练语料超 4 万亿 token,Mellum 使用自动混合精度 (AMP) 进行训练,以 bf16 精度发布,可在 vLLM、llama.cpp、Ollama 等后端高效运行。
JetBrains AI Blog huggingface
Visualstudio
Local Mellum Completion - Visual Studio Marketplace
Extension for Visual Studio Code - Local Mellum for Visual Studio Code
via LoopDNS资讯播报 - Telegram Channel

进一步信息揣测
- 模型性能与商业策略的潜在矛盾:Mellum-all 作为开源模型,JetBrains 可能通过免费推广吸引开发者使用其 IDE 生态(如 IntelliJ 系列),间接推动 JetBrains AI Assistant 等付费服务的订阅,开源模型实为引流工具。
- 本地运行的硬件隐形成本:虽然支持离线推理(Ollama/LM Studio),但 4B 参数模型对本地 GPU 显存要求较高(至少 8GB),实际部署可能需升级硬件,官方未明确提及此门槛。
- 多语言支持的妥协:覆盖 JavaScript/Go/Rust 等语言可能牺牲了单语言深度优化,实际补全质量可能低于专用模型(如 Tabnine 针对特定语言的微调版本),需实测验证。
- 云推理的商业模式试探:VS Code 扩展“一键切换云端”功能可能为后续推出付费云服务铺路(类似 GitHub Copilot 的订阅制),当前免费阶段用于收集用户行为数据。
- 预训练数据的版权风险:4 万亿 token 语料来源未公开,可能包含非合规代码(如 GPL 协议代码或私有代码库泄露片段),企业用户需警惕法律风险。
- 与竞品的隐形竞争:选择 LLaMA-style 架构而非 StarCoder 等代码专用架构,可能因避免 Meta 的许可限制,但性能上可能弱于 DeepSeek-Coder 等竞品。
- IDE 绑定的封闭性:IntelliJ 用户“无需插件”即可使用,实为强化 JetBrains 生态壁垒,VS Code 用户需额外配置,暗示其优先服务自有用户群体。
- 模型精度的商业考量:以 bf16 精度发布(而非 int8/int4)可能有意限制边缘设备部署,推动用户使用云端高性能推理服务。