
据彭博社援引知情人士报导称,这三家公司正通过“前沿模型论坛”(Frontier Model Forum)共享信息。该论坛是由上述三家人工智能巨头与微软公司于2023年共同创立的行业非营利组织,旨在检测违反它们的服务条款的所谓对抗性蒸馏行为。
这种罕见的合作凸显了美国人工智能公司所担忧的严重性:一些用户,尤其是在中国的用户,正在开发它们产品的仿冒版本,这些仿冒版本可能以低价抢走客户,并构成国家安全风险。
一位知情人士匿名透露,据美国官员估计,未经授权的仿冒行为每年给硅谷实验室们造成数十亿美元的利润损失。
OpenAI证实,其参与了“前沿模型论坛”关于对抗性蒸馏的信息共享工作,并指公司近期向美国国会提交了一份关于此实践的备忘录,其中指责中国公司DeepSeek试图“搭OpenAI和其他美国前沿实验室开发的技术的便车”。谷歌、Anthropic和“前沿模型论坛”均拒绝置评。
蒸馏是一种利用较早的“教师”人工智能模型训练较新的“学生”模型的技术,该学生模型能够复制早期系统的功能——通常比从头开始构建原始模型成本低得多。某些形式的蒸馏已被广泛接受,甚至受到人工智能实验室的鼓励,例如,当公司创建更小、更高效的自有模型版本,或者允许外部开发人员使用蒸馏技术构建非竞争性技术时。
然而,当第三方尤其是像中国或俄罗斯这样的美国敌手国家,未经授权使用蒸馏技术复制专有成果时,这项技术一直备受争议。美国顶尖的人工智能实验室警告称,外国敌手们可能利用该技术开发出缺乏安全防护措施的人工智能模型,例如那些能够防止用户制造致命病原体的限制。
中国实验室们开发的大多数模型都是开源的,这意味着基础人工智能系统的部分代码是公开的,用户可以免费下载并在自己的平台上运行,因此使用成本更低。这给那些一直将模型设为专有的美国人工智能公司带来了经济挑战,这些公司押注客户会付费使用它们的产品,以帮助抵消这些公司在数据中心和其他基础设施上投入的数千亿美元。
蒸馏技术在2025年1月首次受到广泛关注,当时DeepSeek出人意料地发布了R1推理模型,该模型在人工智能领域引起了轰动。彭博社此前报导称,不久之后,微软和OpenAI就对这家中国初创公司是否从美国公司的模型中不正当地提取了大量数据以创建R1展开了调查。
今年2月,OpenAI曾向美国立法者发出警告,称尽管该公司已加大努力防止其产品被滥用,但DeepSeek仍继续采用日益复杂的手段从美国模型中提取结果。OpenAI在提交给美国众议院美国与中共战略竞争特设委员会的备忘录中声称,DeepSeek正利用数据蒸馏技术开发其突破性聊天机器人的新版本。
美国人工智能公司就对抗性蒸馏技术进行的信息共享,与网络安全行业的惯例不谋而合。在网络安全行业,各公司经常交换有关攻击和敌手策略的数据,以此加强网络防御。通过合作,这些人工智能公司同样旨在更有效地检测此类行为,识别责任人,并努力阻止未经授权的用户得逞。
特朗普政府官员已表示愿意促进人工智能公司之间的信息共享,以遏制对抗性蒸馏。去年,特朗普总统公布的《美国人工智能行动计划》呼吁建立一个信息共享与分析中心,部分原因正是出于此目的。
知情人士透露称,目前,由于人工智能公司不确定在现有的反垄断指导方针下,哪些信息可以共享以应对来自中国的竞争威胁,因此关于蒸馏的信息共享仍然有限。知情人士表示,如果美国政府能够提供更清晰的指导,这些公司将从中受益。
自DeepSeek在去年初发布R1模型震撼全球市场以来,蒸馏一直是美国人工智能开发者最为关注的问题之一。功能强大的开源模型在中国持续涌现,业内许多人士都在密切关注DeepSeek模型的重大升级。
去年,Anthropic禁止中国企业使用其Claude聊天机器人模型。今年2月,该公司指出三家中国人工智能实验室——DeepSeek、Moonshot和MiniMax——通过蒸馏技术非法提取了该模型的功能。
今年,Anthropic表示,这种威胁“已超越任何单一公司或地区”,并构成国家安全风险,因为蒸馏后的模型通常缺乏安全防护措施,无法防止不法分子利用人工智能工具进行恶意活动。
谷歌发布博文称,其发现模型提取尝试有所增加。上述美国三大人工智能实验室尚未提供证据证明中国在模型创新方面有多少依赖于模型技术,但它们指出,攻击的普遍程度可以根据大规模数据请求的数量来衡量。



