原文摘要
文 | 阿里研究院人工智能治理中心主任、电子科技大学公共管理学院协议副教授 傅宏宇;阿里研究院人工智能治理中
进一步信息揣测
- 开源模型的实际风险被低估:尽管文章强调开源AI未比闭源带来更多风险,但实践中开源模型的滥用(如生成恶意代码、虚假信息)因技术门槛降低而更易发生,且监管追溯困难。
- 欧盟“开源豁免”的隐藏门槛:欧盟《人工智能法案》中开源豁免需满足严格协议(如署名权、分发条款),且商业化模型(即使部分收费)会被排除,实际能享受豁免的开源项目极少。
- 系统性风险的灰色地带:高影响力开源模型(如DeepSeek)若被认定存在系统性风险,仍需遵守严格义务,但“高影响力”标准模糊,可能成为监管打压竞争性技术的工具。
- 开源生态的不可控性:模型一旦开源,即使官方删除也无法阻止传播(如通过镜像站、私有部署),企业需提前制定“防扩散”策略(如许可证限制)。
- 国际组织的定义博弈:国际组织试图通过重新定义“开源边界”维护自由,实则是为规避监管,例如将部分核心代码闭源仍自称“开源”。
- 商业公司的开源动机:阿里等企业推动开源实为生态布局,通过免费模型吸引开发者绑定其云服务(如模型微调、部署需依赖原厂工具链)。
- 数据透明度陷阱:欧盟要求开源模型提供训练数据概要,但实践中企业可能仅披露无关紧要的元数据,关键数据(如用户隐私数据来源)仍隐藏。
- 版权合规的潜在风险:开源模型若训练数据含未授权内容(如爬取书籍、论文),即使声明“免责”,下游开发者仍可能面临诉讼(如Getty Images诉Stability AI案例)。
- 社区治理的虚设性:开源社区宣称“共同维护安全”,但实际关键漏洞修复依赖核心团队,社区贡献者缺乏权限和激励,导致响应滞后。