4 月 2 日,微软宣布推出全新的开源软件项目 Agent Governance Toolkit,试图在自主 AI 代理(autonomous AI agents)领域建立运行时安全治理体系。该工具包采用 MIT 许可证开源,面向希望在生产环境中更可控地部署智能体应用的开发者与企业。

微软声称,这一工具包是首个覆盖 OWASP 去年提出的全部十项“代理式 AI 风险”(agentic AI risks)的工具集。这十项风险包括:目标劫持(goal hijacking)、工具误用(tool misuse)、身份滥用(identity abuse)、供应链风险、代码执行风险、内存投毒(memory poisoning)、通信不安全、级联故障(cascading failures)、人机信任被利用以及“流氓代理”(rogue agents)等,旨在针对当前大模型驱动智能体在执行复杂任务时可能出现的系统性安全问题。该项目目前支持 Python、Rust、TypeScript、Go 和 .NET 等多种语言生态,面向主流开发环境提供统一的治理能力。
在具体架构上,Agent Governance Toolkit 由多个模块组成,分别对应智能体运行时生命周期中的关键安全环节。Agent OS 被定位为策略引擎,用于在每一次代理行为实际执行前进行拦截和策略评估,从而在动作层面对不安全或越权操作进行阻断。Agent Mesh 则聚焦于代理与代理之间的安全通信,确保多代理协作场景下的信息传输得到保护,降低数据泄露和指令被篡改的风险。
针对执行环境与运行级别管理,微软提供了 Agent Runtime,用于实现动态的执行“环”(execution rings),使不同敏感度和权限级别的操作可以在隔离的安全域中运行。同时,Agent SRE 模块用于提供各类运行时安全防护措施与稳定性保障,帮助开发者在生产环境中监控与处置异常行为。围绕合规要求,Agent Compliance 支持自动化合规验证及合规等级评定,为企业内部审计和外部监管需求提供技术支撑。
在生态与扩展性方面,Agent Marketplace 用于管理插件生命周期,从引入、更新到下线提供一体化治理能力,帮助控制第三方工具与组件带来的供应链和依赖风险。针对智能体的训练过程,Agent Lightning 模块则面向强化学习等训练场景提供治理能力,试图在模型不断迭代和策略优化过程中同样落实安全与合规要求,而不仅仅停留在推理与执行阶段。
微软强调,该工具包是“从设计之初即开源”(open source by design),并采用 MIT 许可证开放代码,以便社区和企业在现有基础上进行扩展与集成。对于愿意将 AI 代理安全托付给微软解决方案的用户,可以通过微软开放源代码博客了解更多技术细节,项目源代码目前已托管在 GitHub 仓库中,欢迎开发者参与试用与反馈。

