Mar 6, 2026
标签:
AI trust
人工智能的治理格局正在迅速演变。诸如欧盟的《人工智能法案》(AI Act)之类的法规表明,监管正明显转向以结果为导向的监督,更加强调要打造值得信赖的人工智能,尊重基本权利,因为人工智能系统对人们的生活、机会和自由的影响日益加深。
在联合国人权事务高级专员发布了关于人权与技术标准制定流程的报告之后,开发或部署人工智能的组织如今不仅要证明其技术的稳健性和对监管规定的遵守情况,还要证明其系统在现实环境中运行的方式是公平、透明且尊重各方权利的。
对于许多组织而言,引用标准是大规模实施负责任的人工智能实践的主要机制,涵盖产品、团队和市场,但例如欧盟《人工智能法案》中所规定的对人权的保护,这类高度依赖具体情境但对建立和维持人工智能信任至关重要的内容,却难以完全转化为标准化的要求。
“自由在线联盟”强调,技术标准的制定应有民间社会和人权专家的实质性参与,以确保制定出的技术标准有助于而非损害权利保护。
技术标准会影响围绕透明度、准确性、稳健性和文档编制的系统设计选择。而且,对于符合性评估,标准提供了可衡量、可重复的准则。然而,基本权利往往涉及规范性判断——关于相称性、公平性、必要性和社会可接受性的疑问,这些问题并非总能简化为技术门槛。
因此,标准本身并不能完全确保对基本权利的尊重,尽管它们仍是人工智能治理的重要基石。
2026 年 1 月,欧洲标准化委员会(CEN)和欧洲电工标准化委员会(CENELEC)与欧盟基本权利署(FRA)签署了一份谅解备忘录。该协议确立了在联合技术委员会 21(JTC 21)内的合作,该委员会负责制定支持欧盟《人工智能法案》的人工智能标准。通过此次合作,FRA 将其在基本权利方面的专业知识贡献出来,为人工智能标准的制定提供信息。
更多有关此方面的见解欢迎参阅构建人工智能信任基础 有关咨询欢迎联系Nemko。