3 月 20 日,由中国信息安全测评中心指导,绿盟科技联合中国科学院信息工程研究所编写的《面向智能体时代的大模型安全—— Agentic Security 一体化安全范式重构与工程实践》白皮书在北京重磅发布,本次发布会汇聚国内人工智能安全领域专家,围绕智能体时代大模型安全的发展态势、风险挑战、技术体系与产品落地等核心议题展开深度研讨,为行业破解智能体安全治理难题、构建一体化安全防护体系提供权威指引与实践路径。
绿盟科技作为网络安全领域的领先企业,此次发布白皮书既是对智能体时代大模型安全技术研究的成果凝练,更是面向产业实践的安全能力落地,为人工智能产业安全、健康、规模化发展筑牢屏障。
一、能力升级,把准智能体全维度安全脉
中国信息安全测评中心研究员李维杰博士围绕 " 人工智能发展态势 "" 人工智能安全风险 " 展开讨论。他认为,人工智能发展迅猛,从 " 能说会道 " 的大模型到 " 能跑会跳 " 的具身机器人再到 " 能干会拼 " 的智能体,都给人类社会带来广泛的进步,但若应对不当,行业可能再度陷入发展 " 寒冬 "。因此,亟需破解规模化应用落地、安全风险治理等难题。
针对人工智能安全风险,李维杰博士认为部分国家将安全风险测评作为应对人工智能安全风险 " 主抓手 ",在标准研制、平台建设、科研攻关等方面持续推进,形成的经验值得借鉴。针对智能体安全,李维杰认为首先需回答好 " 系统行为是否可控 " 这一关键问题,建立覆盖智能体全生命周期的安全能力,才能更好促进产业发展。2025 年 12 月,中国信息安全测评中心联合国内力量,研究人工智能安全风险和测评技术,发布白皮书《人工智能安全风险测评(2025 年)》,支撑人工智能安全风险测评发展。此次,中国信息安全测评中心作为指导单位,参与白皮书《面向智能体时代的大模型安全—— Agentic Security 一体化安全范式重构与工程实践》发布,也是希望增进与行业联系,共同推进人工智能安全风险测评工作。

随着大语言模型及其智能体在产业与社会中的广泛应用,其安全与隐私风险日益凸显。中国科学院信息工程研究所陈恺主任围绕大模型生命周期中的安全挑战,重点讨论了:模型供应链安全,可能引入后门、污染数据、脆弱性等风险;大模型越狱与防御机制,介绍一种利用大模型内部状态变化的越狱防御机制;大模型智能体安全及其隐私泄露风险,例如推理过程中的用户隐私暴露,以及相关的缓解方法等。

二、" 养虾 " 踩坑?焊牢智能体全流程安全门
OpenClaw 的普及让 " 人人都能玩智能体 ",然而,其安全能力的结构性缺失,让每一次便捷操作都可能踩雷。绿盟科技天枢实验室主任研究员顾杜娟博士带来《" 龙虾 " 热潮下的智能体安全 : 安全技术体系与产品落地路径》的主题分享,围绕企业在智能体时代面临的安全新挑战展开,系统说明安全边界如何从传统的大模型内容安全,进一步演进到面向 Agent 系统、工具调用、执行链路与运行环境的整体安全治理。
顾博士将以 OpenClaw 为例,分析其带来的新型攻击面扩张、系统失控与行为滥用等核心风险,结合 OWASP 等主流框架,从全生命周期视角梳理 Agent 风险分布与根因机制。在此基础上,她重点介绍了企业如何构建覆盖资产识别、漏洞发现、Skill 风险识别、行为监测、攻击链追踪和持续运营的一体化安全能力,并结合已检出漏洞、风险分类与监测实践展示安全效果。
本次发布的《面向智能体时代的大模型安全—— Agentic Security 一体化安全范式重构与工程实践》技术白皮书,提出可供企业参考的落地路径与实践指南,为企业开展智能体安全建设、风险治理和运营闭环提供方法参考。

当 " 龙虾 "(OpenClaw)等智能体系统成为主流,传统终端防护与安全分支模式正面临三重挑战:版本分裂导致补丁滞后、私有分支维护成本高企、以及供应链依赖带来的长期风险。为此,绿盟科技 AI 安全产品总监李斌详述了绿盟 AI-UTM" 清风卫 " 智能体防护方案。
其核心理念是 " 无侵入、全围栏、管行为 "。区别于业界终端方案或开源分支维护模式," 清风卫 "AI-UTM 通过透明代理与网关监听实现无侵入式对接,彻底规避版本分裂与供应链风险。在能力上,其构建输入 / 输出、检索、搜索、执行四道安全围栏,防御提示词注入与敏感数据泄露;同时通过智能体资产发现与行为管控,精准监测非法外联、横向越权及 Skill 投毒等系统级攻击。
绿盟 " 清风卫 "AI-UTM,从 " 单点防护 " 升级为 " 全流程闭环 ",让智能体应用更安全、更可控。


三、圆桌直击:专家支招安全养虾防护思路
问题一:当前,各级政企都纷纷拥抱多智能体,广大普通用户也在最近 " 养虾 " 热潮中跃跃欲试,请问我们在使用过程中应该注意哪些安全风险,如何做好防护与检测呢?
中国信息安全测评中心研究员李维杰博士:智能体作为先进的工具能够提高工作效率、降低社会成本,具备诸多优势,我们应该持积极的态度。但在使用过程中要提高警惕,首先,需要明确智能体的权限红线,为其完成指令及任务划定边界,尤其对于重要资产的防护;其次,要使用通过安全合格检测的产品或服务,确保资源可靠;第三,需要联合社会各界形成合力,做好风险研究,筑牢安全底线。
问题二:在 " 龙虾 " 这种先进智能体技术下,您有什么见解和想法?对于接下来的技术研究方向,我们应该如何发力呢?
中国科学院信息工程研究所陈恺主任:我们认识到," 龙虾 "(OpenClaw)是目前能力很强的一种应用程序,在执行过程中,它与大模型通过语言的指令进行交互,就会涉及到系统安全和权限管理,比如大模型遭到投毒也会影响 " 龙虾 " 的使用效果。此外,以前的命令是固化的,而 " 龙虾 " 是可以进行自主编程的非固化工具,这与之前人工智能发展相较而言是很大的不同,因此,我们研究要往前看,对当下面临的安全问题也要尤为警醒。
问题三:随着 " 龙虾 " 等智能体系统出现,传统围栏似乎难以覆盖 " 龙虾 " 真实面临权限滥用、插件风险以及算力失控等系统性问题。绿盟规划面向 " 龙虾 " 安全产品,其核心能力与业界有什么不同?
绿盟科技 AI 安全产品总监李斌:针对 " 龙虾 "(OpenClaw)类智能体的系统风险,绿盟 AI-UTM 的核心差异在于 " 无侵入架构 + 全流程闭环 " 的双重深度防御。与通常的终端方案或维护私有安全分支不同,我们通过透明代理与网关监听实现无侵入式对接,避免了版本分裂、补丁滞后的供应链风险。真正做到不仅防 " 对话 ",更能管行动与连接,构建覆盖 " 事前 - 事中 - 事后 " 的闭环防护体系。
当前,AI 安全已迈入全生命周期、全链路管控的新阶段,需锚定安全性、可靠性、可控性、公平性为目标构建防护体系。绿盟科技 "Agentic Security 一体化安全范式 " 指引下的 AI 安全全体系产品加持,将有效遏制智能体的 " 野蛮生长 ",让 AI 在安全轨道上赋能新质生产力发展。


登录后才可以发布评论哦
打开小程序可以发布评论哦