2024年2月29日,全国网络安全标准化技术委员会( TC260 )正式发布《生成式人工智能服务安全基本要求》(以下简称《基本要求》)。《基本要求》规定了生成式人工智能服务在安全方面的基本要求,包括语料安全、模型安全、安全措施等,并给出了安全评估要求,适用于服务提供者开展安全评估、提高安全水平,也可为相关主管部门评判生成式人工智能服务安全水平提供参考。百度深度参与技术文件编制,并作为试点应用企业在文件编制过程中就语料安全、模型安全、评估要求等多项条款开展验证。
作为人工智能领军企业,百度高度重视大模型安全风险防范的能力建设和生态建设。此前,百度已深度参与了3项国家标准《信息安全技术 生成式人工智能人工标注安全规范》 《信息安全技术 生成式人工智能预训练和优化训练数据安全规范》《信息安全技术 生成式人工智能安全基本要求》及1个实践指南《网络安全标准实践指南—生成式人工智能服务内容标识方法》,更作为本次《基本要求》标准推广单位,基于标准要求在编制过程中结合业务实践开展符合性验证,指导业务合规,降低安全风险。
与此同时,依托于百度大模型安全实践经验,百度从大模型全生命周期视角出发,总结出的一套从服务提供方视角的应对思路,方案涵盖大模型训练/精调/推理、大模型部署、大模型业务运营等关键阶段,提供全流程的包含数据安全与隐私保护方案、模型保护方案、AIGC 内容合规方案、业务运营风控方案的安全产品与服务,同时结合以攻促防守的思路建立 AIGC 内容安全蓝军评测能力,对大模型实现例行化的安全评估,助力企业构建平稳健康、可信可靠的大模型服务。
面对当下“大模型+安全”所面临的新形势、新机遇、新挑战,百度将不断拓展人工智能技术在网络安全领域的技术革新与应用,与各界保持合作,共筑大模型安全防线,并以实践经验推动相关标准的建设,助力构建完善的人工智能安全保障体系,探索更安全的大模型落地千行百业的无限可能。