发布日期:2025-07-24 17:43 点击次数:152
当华为盘古Pro MoE大模型高调开源仅四天,一项发布于GitHub的技术报告投下深水炸弹:其与阿里通义千问Qwen-2.5 14B模型的参数相似性高达92.7%,远超行业正常阈值。
这场涉及中国AI双巨头的争议,迅速从技术圈蔓延至公众视野,拷问着开源生态的伦理边界与大模型创新的真伪。
(报告原文github页面已经404)
一场由“模型指纹”引发的风暴
该研究报告研究团队通过“LLM指纹技术”分析发现,盘古Pro MoE与Qwen-2.5 14B在注意力机制(QKV投影层)的参数分布相关性达0.927(接近完全一致的1.0),而业内同类模型对比通常不超过0.7。
更关键的是,QKV偏差模式在早期层的特征峰值及收敛行为上近乎一致——这种设计恰是Qwen 1-2.5代的标志性特征,而多数新模型(包括Qwen 3)已弃用。
展开剩余80%研究者直言:“这种相似性无法用巧合解释。”
开发者在盘古官方开源仓库的许可证文件中发现标注:
Copyright 2024 The Qwen team, Alibaba Group
Copyright 2024 The Qwen team, Alibaba Group
尽管华为解释此为合规引用开源组件(遵循Apache 2.0协议),但结合参数异常,舆论迅速将其解读为“抄袭实锤”。
华为的双线辩护:架构创新与开源合规
华为强调盘古采用自研π架构(增广残差连接+级数激活函数),专为昇腾芯片优化,解决传统Transformer特征坍塌问题,推理速度提升20-25%。
声明模型“从头训练”于昇腾平台,非基于Qwen增量训练,并创新提出分组混合专家模型(MoGE) 解决分布式训练负载均衡难题。
华为承认使用LLaMA和Qwen开源组件,但坚称:“严格遵循开源协议标注版权声明,属社区通行做法”。法律人士指出,Apache 2.0协议允许商业复用,只要保留版权声明即不构成侵权。
华为以“相同方法检测其他模型亦现高相关性”反驳:
Baichuan2-13B vs Qwen1.5-14B = 0.87 Baichuan2-13B vs 盘古 = 0.84暗示检测方法存在系统性缺陷。
开源生态的模糊地带:谁在定义“合理复用”?
阿里通义千问自身曾借鉴Llama的ROPE位置编码;全球10万个衍生模型基于Qwen开源代码。现行法律保护代码版权,但参数结构、训练方法等核心技术无明确权属界定。
国内外判例(如《纽约时报》诉OpenAI)均聚焦数据侵权,非模型架构。
华为的硬仗:受芯片制裁压力,需借盘古证明昇腾平台能力,研发成本倒逼技术“捷径”。阿里的软肋:全球最大开源模型生态(衍生模型超10万)反成知识产权雷区。
开发者立场分裂:
支持派:“92.7%相似性绝非偶然,Qwen许可证文件是铁证!”
反对派:“开源即允许复用,华为优化昇腾适配本就是创新”。
支持派:“92.7%相似性绝非偶然,Qwen许可证文件是铁证!”
反对派:“开源即允许复用,华为优化昇腾适配本就是创新”。
这场参数罗生门,本质是高速竞赛中的生态规则觉醒。华为若想自证清白,需开放训练日志供独立审计;阿里作为开源霸主,应明确衍生模型许可边界;而行业更需告别“百模乱战”,构建技术原创性量化标准+开源合规框架+司法保护细则的三维防线。
当中国大模型数量全球第一,质量却未入顶尖(CSDN 2025评测前十无盘古),这场争议恰是叩问初心的契机:真正的创新不是参数的排列组合,而是从0到1的敢为人先。 在星辰大海的征途上,唯有敬畏原创,方得宇宙苍穹。
#你认为开源复用与抄袭的边界在哪里?欢迎在评论区探讨!
发布于:浙江省