ISO/IEC 22989:2022《信息技术 人工智能 概念和术语》
标准定位:人工智能(AI)领域的基础性术语标准,为全球AI技术研发、政策制定和产业协作提供统一语言框架。
一、标准核心目标与意义
解决术语碎片化问题:
统一AI领域的关键概念(如“可解释性”在不同文献中可能对应“Explainability”或“Interpretability”),避免因术语歧义导致的技术协作障碍。
支撑法规与伦理实践:
为欧盟《AI法案》、中国《生成式AI服务管理办法》等提供术语依据,例如明确定义“偏差(Bias)”为“数据或模型中导致不公平结果的系统性误差”。
促进技术互操作性:
通过标准化“AI系统生命周期”“利益相关者角色”等概念,推动跨平台、跨企业的AI系统兼容性。
二、标准核心内容架构
1. 术语分类体系(覆盖100+关键术语)
类别 | 示例术语 | 定义要点 |
---|---|---|
基础概念 | 人工智能系统、机器学习 | 区分“基于规则的AI”与“数据驱动的AI” |
技术属性 | 透明度、可控性、鲁棒性 | “透明度”定义为“系统内部逻辑可被人类理解的特性” |
数据管理 | 训练数据、验证数据、测试数据 | 明确三者的划分标准(如测试数据不得参与任何训练阶段) |
伦理与风险 | 偏差、公平性、问责制 | “偏差”包括数据偏差、算法偏差、应用场景偏差三类 |
2. 关键概念模型
AI系统生命周期:
涵盖需求分析、数据收集、模型训练、部署、监控、退役6个阶段,强调持续迭代(如模型监控阶段需定期更新测试数据)。利益相关者角色:
角色 职责 数据提供方 确保数据合法、无歧视性 模型开发者 实现可控性(如设置紧急停止机制) 最终用户 理解系统局限性(通过标准化说明文档)
三、与其他标准的协同关系
与ISO/IEC 23053(可解释性)的关联:
ISO/IEC 22989提供基础术语(如“可解释性”的定义),而ISO/IEC 23053在此基础上制定技术实现规范。
与IEEE 7000系列(伦理标准)的互补:
IEEE 7000引用ISO/IEC 22989的术语框架,扩展伦理风险评估方法。
四、产业应用与挑战
1. 典型应用场景
医疗AI:
使用标准术语描述“训练数据来源”(如“仅包含亚洲人群数据需声明局限性”),符合FDA/NMPA审批要求。金融风控:
依据“可控性”定义设计动态权限管理系统(如高风险交易需人工复核)。
2. 实施难点
术语本地化:部分术语(如“Accountability”)在中文语境中需结合法规细化(对应“问责制”还是“责任追溯”)。
动态更新滞后:新兴技术(如量子机器学习)的术语尚未纳入2022版标准。
五、未来发展方向
2026年修订计划:
新增生成式AI相关术语(如提示词工程、幻觉检测)。
强化边缘AI场景下的术语定义(如联邦学习中的“本地模型”)。
中国参与贡献:
中国电子技术标准化研究院(CESI)主导“AI安全”术语集的补充提案。
六、总结与建议
企业行动指南:
技术团队:将标准术语嵌入开发文档(如API接口描述字段使用“验证数据”而非“测试数据”)。
法务部门:参照术语定义审核AI产品合规性(如“偏差”需匹配监管要求)。
标准全文获取:
官网链接:ISO/IEC 22989:2022
中文版翻译:中国国家标准委(GB/T 等同采用计划中)。