设计应用

面向风险的人工智能监管进展、创新与启示:基于欧盟视角的观察

作者:王春晓,李怀胜
发布日期:2024-11-27
来源:网络安全与数据治理

引言

随着人工智能系统普遍嵌入数字经济产业,其引发的算法偏见、数据隐私、伦理失范等潜在风险也接踵而至。正如联合国教科文组织(United Nations Educational, Scientific and Cultural Organization, UNESCO)在《人工智能伦理建议书》所说,人工智能可以对人类大有裨益并惠及全球,但也可能加剧偏见而导致算法歧视、数字鸿沟和数字互斥,威胁文化、社会和生物多样性并造成社会经济失衡。与此同时,该文件将人工智能监管视为人工智能风险的解决之道,鼓励各国政府采用人工智能监管(Artificial Intelligence Regulation,AI Regulation)以预测后果、减少风险、避免有害后果、促进公民参与和应对社会挑战[1]。在此背景下,欧盟逐步意识到人工智能风险引起的监管需求,构建起人工智能监管范式并创新政策体系和实践举措,逐渐成为世界人工智能监管领域的重要一极。

镜鉴欧盟人工智能监管的先进经验对中国的人工智能监管改革、发展和变革具有重要的意义和作用。本文为明确欧盟人工智能监管的领域界分,首先在理论基础上对人工智能监管与人工智能治理(Artificial Intelligence Governance,AI Governance)进行区分和对比,明晰欧盟面向风险的人工智能监管的范式变革。其次,从欧盟最新出台的《人工智能法案》(下称《法案》)入手,分析欧盟面向风险的人工智能监管理论与实践动向,以展现欧盟在人工智能监管领域的先进举措。最后,结合欧盟人工智能监管理论创新和实践经验,为我国人工智能监管发展提供有益借鉴。


本文详细内容请下载:

https://www.chinaaet.com/resource/share/2000006235


作者信息:

王春晓,李怀胜

(中国政法大学刑事司法学院,北京100088)


Magazine.Subscription.jpg

此内容为AET网站原创,未经授权禁止转载。
人工智能监管 欧盟 人工智能法案 人工智能风险