跳到正文
模安局 Logo 模安局

ISO/IEC 23894 深度解读:首个面向AI的风险管理国际指南

AI风险管理体系

2025/12/23 更新 2025/12/23 6 分钟阅读

当人工智能从实验室的演示Demo,悄然渗透进招聘系统、医疗诊断、金融风控甚至司法辅助时,一个根本性的转变已经发生:AI不再是工具,它正在成为社会运行的新型基础设施。

基础设施一旦失稳,代价是社会性的。近年来,算法偏见、隐私泄露、自动驾驶事故等事件不断敲响警钟。管理AI风险,从一个技术话题,急剧上升为关乎信任、安全与可持续发展的核心治理命题。

在此背景下,2023年,国际标准化组织(ISO)与国际电工委员会(IEC)联合发布了*《ISO/IEC 23894:Information technology-Artificialintelligence-Guidance on risk management 》*。这份文件并非又一版晦涩的技术规范,而是首次系统性地回应了一个时代之问:

一个组织,应如何在真实世界中,对AI进行全生命周期、可治理、可持续的风险管理?

图片

本文旨在剥开标准的术语外壳,带你读懂其核心逻辑与实践指引。

传统风险管理框架,为何在AI面前“失灵”?

对于风险管理,业界已有成熟范式——ISO 31000。然而,AI的独特性正在将传统框架推向极限:

  • 不确定性倍增:AI的行为不完全由代码决定,还受数据驱动,其决策逻辑可能连开发者都无法完全追溯。
  • 动态演化:模型会在使用中持续学习、变化,上线之初的“安全状态”并非永恒。
  • 影响外溢:AI决策的影响会轻易越过直接用户,波及未被代表的群体、市场公平乃至社会环境。
  • 价值冲突:它直指伦理、公平、隐私、人权等多重社会价值,需要在技术效率与社会责任间艰难权衡。
  • 监管速变:全球AI治理规则仍处于“沙盒”探索期,法律环境月异日新。

因此,ISO/IEC 23894的核心使命,正是将通用的风险管理“翻译”成AI场景下的具体行动指南。无论你是AI的开发者、部署者、使用者还是服务提供方,这套方法论都至关重要。

重新定义AI时代的“风险”

理解这份标准,首先要校准对“风险”的认知。它沿用了ISO 31000的经典定义:

风险 = 不确定性对目标的影响

这意味着,风险不仅是潜在的威胁(负面),也包含未被抓住的机会(正面)。但在AI的安全、合规与治理语境中,标准特别提示:我们必须将焦点集中于“负面风险”的管理。事先在组织内部就此达成共识,是避免后续工作方向偏离的关键。

三层架构,构建治理全景

标准的结构清晰而富有层次,可概括为原则、框架、流程三大支柱:

  • 原则层(价值观):明确“我们凭什么这样做”,奠定风险管理的哲学基础。
  • 框架层(组织力):解决“如何把事管起来”,涉及治理体系、职责分工与资源保障。
  • 流程层(执行力):规定“具体一步一步怎么做”,提供从识别到监控的闭环操作。

简言之,原则决定方向,框架提供支撑,流程确保落地

AI风险管理的三大思维转变

转变一:从“用户”到“利益相关方”——包容性思维

传统IT风险主要影响“用户”。而AI的风险涟漪效应远大于此,可能波及:数据来源所代表的群体、因算法偏差被误伤的少数派、甚至从未使用过该AI却被其自动化决策影响的人。

因此,标准强调必须主动纳入更广泛的利益相关方视角,包括受影响的社区、社会组织与监管机构。这解释了为何AI风险管理必然与公平、伦理、人权等议题深度交织。

转变二:从“项目节点”到“持续运营”——动态性思维

AI的风险图谱是流动的。模型在更新、数据在变化、使用场景在拓展、社会预期在调整。“一评定终身”的模式彻底失效。风险管理必须成为伴随AI系统全生命周期的持续性监控与响应能力。

转变三:从“历史数据”到“最佳可得信息”——务实性思维

许多AI风险(如全新的滥用方式、突发的伦理争议)并无可靠历史数据可供计算概率。标准务实指出:当精确量化不可行时,应依据可获得的最佳信息(专家判断、情景分析、类比推理等)进行定性评估。评估的目的是指导行动优先级,而非追求数学上的完美。

组织必须回答的关键问题

AI风险管理绝非安全或技术部门的“孤岛任务”,它首先是组织治理议题。

  • 领导力承诺是起点:管理层必须公开表达对负责任AI的承诺,并将AI风险正式纳入组织治理议程。信任与问责,是AI被社会接纳的货币
  • 角色与资源需明晰:必须明确谁对AI风险最终负责,并配置相应的专业能力与预算。否则,所有策略都将停留在纸面。
  • 审视组织自身:标准深刻指出,AI会重塑组织——可能导致关键技能退化、加剧对外部技术的依赖、引发知识产权与透明度冲突。最大的风险之一,或许是组织自身能力未跟上技术的飞跃

六步打造可落地的管理闭环

这是标准最具实操价值的部分,为组织提供了清晰的行动路线图。

第一步:清点家底 最基本也最易被忽视的一步:建立组织的“AI系统清单”。必须回答:我们在何处、以何种方式、使用着怎样的AI?无清单,无治理。

第二步:设定评估背景 在具体评估前,需界定:AI的目标是什么?影响边界在哪里?哪些风险是组织或社会绝对不可接受的(例如,危及生命安全或基本人权)?评估需同时覆盖组织风险、个人风险与社会风险

第三步:系统性风险识别 沿三条线索展开:

1.识别资产:不仅包括组织的数据、模型、声誉,更包括个人的隐私、公平待遇权,以及社会的公共信任、环境等。

2.识别风险源:如数据偏差、模型“黑箱”、供应链依赖、对抗攻击等。

3.推演事件与后果:谁会受益?谁会受损?是否加剧了现有的社会不公?

第四步:三维影响评估(核心突破) 这是AI风险管理区别于传统IT的关键。标准要求并行开展:

  • 商业影响评估
  • 个人影响评估(隐私、公平、权利)
  • 社会影响评估(群体性、系统性影响)

第五步:风险处置与决策 处置方式包括避免、降低、转移(共享)或接受。标准引入一个关键决策点:如果风险无法被降至可接受水平,则必须进行公开、审慎的风险-收益权衡,并做出存续或终止的明确决策

第六步:持续监控与学习 建立机制,持续收集运行数据、关注外部事件、探测新风险,并定期更新风险记录。AI系统的上线,只是风险管理的又一个新起点

隐藏的实操宝典

标准的三个附录提供了即取即用的工具:

  • 附录A:列出需保障的核心目标清单(公平、隐私、安全、可解释性、环境影响等)。
  • 附录B:详尽的AI风险来源目录,堪称风险评估的检查表。
  • 附录C:展示如何将风险管理活动无缝嵌入AI生命周期的每一个阶段。

从“抵御风险”到“驾驭不确定性”

归根结底,ISO/IEC 23894传递的核心思想并非将AI禁锢于安全的牢笼,而是赋能组织:

在充满不确定性的AI时代,建立起一种持续、负责任地创造并运用AI的能力。

当AI注定成为我们基础设施的一部分,构建其“风险健康档案”,就不再是一种选择,而是一种必需的生存智慧。

(本文基于ISO/IEC 23894:2023内容解读,仅供参考,具体实施请结合组织实际并参照标准原文,原文可点击下方阅读原文或者后台回复“标准”获取。)

同专题推荐

查看专题
浏览 --