【CNMO科技消息】10月18日,一则消息在微信群内广泛流传,声称某头部大厂的大模型训练遭遇实习生入侵,注入破坏代码,导致训练成果不可靠,可能需重新进行。据称,此次入侵涉及的代码覆盖了8000多张卡,潜在损失或超过千万美元。

打开网易新闻 查看精彩图片

有媒体从知情渠道获悉,该大厂实为字节跳动,事件发生在今年6月。一名在某高校就读的博士生在字节跳动商业化技术团队实习期间,因对团队资源分配心生不满,利用攻击代码破坏了团队的模型训练任务。

传闻指出,这名实习生利用了HF(Huggingface)的漏洞,在公司的共享模型中写入破坏代码,致使模型训练效果不稳定,AML团队难以查明原因。目前,该实习生已被辞退,且字节跳动已将此事通报给大模型行业联盟和实习生所在学校。然而,被辞退后,该实习生仍在多处“辟谣”,试图推卸责任。

打开网易新闻 查看精彩图片

一位技术安全专家向媒体表示,HF漏洞的产生通常与单一性集中训练有关,此次事件暴露出字节跳动在技术训练中的安全管理问题。公司既未实施权限隔离,也未做好共用代码的审计工作。在正常情况下,每次大的代码变动都应进行审计,并记录操作痕迹,以确保无法单独篡改代码。

该技术安全专家指出,目前行业通用的做法是实施三级隔离导向性部署,每一级仅包含镜像,并在每次操作前进行扫描。调用需按次计算,并必须提供密钥。每一级完成后,才能进入下一级,同时上一级将自动删除,以实现分级训练。