现如今,AI 助手已不再局限于总结会议纪要、撰写邮件和回答问题,它们开始主动执行操作,例如创建工单、分析日志、管理账户,甚至自动修复故障。
进入智能体 AI(Agentic AI)时代后,这类 AI 不仅会告知你下一步该做什么,还会直接代你完成。这些智能体能力极强,但也带来了一种全新的安全风险。
一、自主智能体的悄然崛起
起初,企业内部引入 AI 的过程看似无害。ChatGPT、Copilot 等工具仅辅助人们完成基础的写作与编码工作,无法独立行动。但这种情况正在迅速改变。
许多团队在未经过安全审查或审批的情况下,就部署了能 " 解读目标、规划步骤、调用 API、触发其他智能体 " 的自主 AI 系统。例如,AI 营销助手可分析营销活动数据,并主动优化目标受众与预算分配;DevOps 智能体能扫描故障并启动修复流程,无需等待人工介入。
最终结果是一类 " 决策更快、行动更快,甚至超出人类监控能力 " 的智能体正在不断增多。
二、智能体 AI ≠普通机器人
尽管企业已开始管理 " 非人类身份(NHI)"(如服务账户、API 密钥),但智能体 AI 与这类身份完全不同。
普通工作流只会遵循固定的操作步骤,而 AI 智能体则会 " 思考下一步该做什么 "。它能将多个步骤串联执行、访问不同系统,并在过程中调整计划。这种灵活性正是智能体 " 既强大又危险 " 的根源——由于智能体可跨边界行动,仅给它授予数据库、客户关系管理系统(CRM)和 Slack 的访问权限,就可能让它成为企业内部权限最高的 " 用户 " 之一。
更复杂的是 " 多智能体生态 " 带来的新挑战。一旦某个智能体开始调用甚至创建其他智能体," 追溯操作源头至最初人类发起者 " 的链路就会变得模糊。
三、影子 AI 已潜入企业环境
即便是行事谨慎的企业,也发现影子 AI 正悄悄渗透到自身环境中:产品经理注册了新的 AI 研究工具,团队将会议机器人接入内部驱动器,工程师搭建了可查询客户日志的本地 AI 助手。
从技术角度看,这些工具都属于 " 服务 ",因此都需要治理。但大多数此类工具进入企业时,并未经过正式审查、安全扫描,也没有留下身份记录。
传统的可见性工具难以清晰捕捉它们的踪迹:云访问安全代理(CASB)工具或许能标记新的 SaaS 域名,却无法发现数百个在云函数或虚拟机上悄悄运行的 AI 智能体。
这并非出于恶意,只是节奏太快——而 " 速度 " 向来是 " 监管 " 的天敌。
四、面向新型身份的安全新规则
面对 " 可能看不见、且以机器速度运行 " 的智能体,该如何保障安全?安全团队需要以新方式调整身份安全策略:
1. 追踪归属与生命周期:每个智能体都需明确 " 负责人 "。当负责人离职时,对应的智能体也应被停用。
2. 附加意图与上下文:智能体的每一次操作都需携带 " 代谁执行 " 的信息——包括 " 触发者是谁、要完成什么任务、有权接触哪些数据 "。一旦丢失这条链路,就会失去可追溯性。
3. 默认授予只读权限:智能体初始权限应仅为 " 查看 "。写入权限必须经过明确审批,且设置有效期限。
大多数企业都没有一套规范流程,用于 " 停用不再需要的 AI 智能体 "。例如,3 月作为实验原型搭建的开发者智能体,10 月仍在运行,且使用的是 " 已离职人员创建的凭证 ";另一个智能体则通过不断调整提示词和工具权限,悄悄获得了客户数据的访问权。这些智能体虽无恶意,却 " 不可见、难清除、权限高 "。
正因如此,越来越多企业开始建立 "AI 智能体清单 ",记录每个活跃智能体的 " 用途、负责人、权限范围、有效期限 " ——这是实现 "AI 智能体及其身份可管理 " 的基础。
五、以 " 管控框架 " 替代 " 恐惧排斥 "
企业引入 AI 是为了提升效率、获取竞争优势,因此安全工作的目标不是 " 阻止智能体运行 ",而是 " 确保它们受到有效监管与治理 "。
就像企业不会给新员工 " 全系统管理员权限 " 一样,对待 AI 智能体也需明确其职责范围、审查其操作行为、核验其决策结果。
关键在于 " 通过治理构建自动管控机制 ":自动限制智能体的操作范围、记录其行为日志、在异常流程造成危害前将其关停。毕竟,如今的智能体已不只是总结报告或分拣工单,它们还能处理故障、审批交易、直接与客户互动。
若不加以管控," 影子 AI" 终将从 " 小隐患 " 变成 " 大危机 "。
智能体 AI 带来的问题并非 " 未来挑战 ",它们已融入企业的技术栈。如果仍将 " 身份 " 简单划分为 " 人类 " 和 " 非人类 ",那就需要新增第三个类别:自主行动体。这类智能体需要明确的身份、可控的权限、可追溯的责任。它们同样需要管控与治理——越早将智能体视为 " 拥有超能力的同事 ",而非 " 带凭证的脚本 ",企业的安全就越有保障。


登录后才可以发布评论哦
打开小程序可以发布评论哦