Anthropic发布报告,指控多家中国AI公司实施蒸馏攻击;事件细节逐步披露,引发行业广泛讨论。
近日,Anthropic公司在官网发布一篇技术报告,主题聚焦于检测和防御模型蒸馏攻击。该报告详细描述了针对其Claude模型的几起大规模活动,并直接点名几家中国AI实验室,包括DeepSeek、月之暗面以及MiniMax。这些公司被指通过大量账号生成海量对话,试图提取Claude的核心能力来优化自身模型。这种行为被视为违反服务条款,并可能影响AI领域的公平竞争格局。
报告指出,这些活动涉及约两万四千个账号,累计产生超过一千六百万次交互。其中,DeepSeek的规模相对较小,主要关注推理能力的提取;月之暗面则针对代理推理、工具使用、编程以及计算机视觉等领域;MiniMax的交互量最大,重点在于代理编程和工具调用等方面。Anthropic通过元数据分析、IP关联以及行为模式识别,追溯到这些活动的来源,并声称部分证据指向具体研究团队或高管。这种指控的出现,反映出前沿模型开发者对知识产权保护的日益重视。

为了绕过地域访问限制和账号封禁,这些操作大量借助代理服务,形成复杂的转发网络。Anthropic将此类架构比作多头集群,大量账号分散在API接口和第三方平台上,甚至将提取流量与正常用户请求混合,以增加检测难度。这种技术手段的复杂性,显示出攻击方在规避防护方面的专业性。同时,Anthropic也在报告中介绍了自身加强防御的措施,包括行为分类器、指纹识别系统以及模型层面的输出限制,旨在显著提升对类似活动的识别和阻断能力。

值得注意的是,此类指控并非首次出现。此前OpenAI和谷歌也曾发布类似报告,涉及对自身模型的类似提取行为。Anthropic在此次事件中强调,这些活动不仅涉及商业竞争,还可能削弱模型的安全防护机制,从而带来更广泛的风险。然而,在指责他人之前,Anthropic自身的发展历程也引发回顾。公司早期曾开展代号为巴拿马计划的内部项目,大量采购实体书籍,通过物理切割和高速扫描进行数字化处理,处理规模达数十万至数百万册,并明确表示希望低调进行。此外,Anthropic还曾因使用未经授权的电子书训练模型而面临诉讼,最终通过和解方式解决。这些历史事件,让外界对知识产权议题的讨论变得更加复杂。

事件曝光后,行业内反应强烈。部分观点认为,如果指控属实,应通过法律途径而非公开报告来处理;另一些声音则指出,AI训练数据的获取方式本身就存在灰色地带,一方指责他人“偷学”,却忽略自身早期实践的争议性。知名企业家马斯克也在社交平台上发表评论,用尖锐语言讽刺这种“贼喊捉贼”的现象,引发更多网友参与讨论。整体来看,此事凸显了全球AI竞争中的技术壁垒、伦理边界以及国际合作必要性,未来或将推动行业制定更明确的规则,以维护创新生态的健康发展。

