原文摘要
华为盘古大模型“抄袭”阿里Qwen?官方回应
via cnBeta.COM - 中文业界资讯站 (author: 稿源:芯智讯)
Telegraph
华为盘古大模型“抄袭”阿里Qwen?官方回应2025年6月30日,华为正式宣布开源盘古7B参数的稠密模型、盘古Pro MoE 72B混合专家模型和基于昇腾的模型推理技术。随后一项由@HonestAGI 发布于GitHub的针对盘古大模型的研究引发业界热议,该研究的作者认为,华为推出的盘古大模型(Pangu Pro MoE)与阿里巴巴发布的通义千问Qwen-2.5 14B模型在参数结构上存在高相似度。 HonestAGI 通过测试比较称,Pangu Pro MoE模型与Qwen-2.5 14B模型在注意力参数分布上的平均相关性高达0.927,远超其…
进一步信息揣测
- 开源模型参数相似性争议:华为盘古Pro MoE 72B与阿里Qwen-2.5 14B的注意力参数分布相关性高达0.927,远超行业正常水平,暗示可能存在非公开的技术借鉴或底层架构复用,而非官方声明的“独立研发”。
- 第三方研究机构的隐蔽角色:@HonestAGI(发布对比研究的GitHub账号)背景不明,可能是匿名行业专家或竞对关联方,其分析报告未经过同行评审,但通过社交媒体迅速发酵,反映大模型领域存在“黑箱狙击”的竞争手段。
- 开源策略的潜在商业意图:华为选择开源部分模型(如7B稠密模型)但保留关键优化技术(如昇腾推理细节),实际是通过社区协作降低研发成本,同时用“半开放”模式吸引开发者生态,与阿里Qwen的全栈开源形成差异化竞争。
- 行业“抄袭”指控的灰色标准:大模型架构设计(如MoE混合专家系统)存在通用范式,参数相似性难以直接判定侵权,但头部厂商会通过专利布局(如阿里Qwen的注意力机制优化)制造技术壁垒,中小团队需警惕隐性侵权风险。
- 官方回应的公关话术:华为未直接否认技术相似性,而是强调“昇腾原生优化”和“自主创新”,暗示法律层面无漏洞,但技术细节可能借鉴了开源社区成果(如Qwen的公开论文)。
- 媒体信源的可疑时间差:报道引用的是2025年6月的事件,但发布于2024年7月(cnBeta原文时间戳错误或刻意模糊),可能为旧闻翻炒,背后或有利益方推动舆论。
