设计应用

人工智能侵权立法中的归责逻辑冲突与矫正

作者:徐榕岭
发布日期:2025-12-23
来源:网络安全与数据治理

引言

随着人工智能(Artificial Intelligence,AI)技术的兴起,“风险”逐渐成为归责核心。经济分析中,“风险”是指决策中的度量不确定性[1]。那么“风险”作为归责中心即可能发生的不利结果应被视为一种成本并纳入制度管理与市场调节中。具体到AI技术的法律规制层面,“风险”的概念内涵已逐渐被“技术损害”填充,即AI技术可能引发的损害是一种应当被控制的社会成本。由此,欧盟提出了AI风险分级治理方案,借此控制AI技术对社会安全、基本权利等的有害影响。但AI风险分级治理方案并不停留在行政法层面,也对侵权法的立法与解释产生深刻影响。例如,将AI技术风险直接视为新的侵权损害类型[2]、将依AI系统的风险等级来调整其适用的因果关系认定方式以及将高风险AI系统归入严格责任制度等。尽管将AI风险分级治理方案引入侵权立法有一定合理性,但这一做法也将与侵权归责逻辑相互冲突,引发不必要的制度成本。当前,我国《人工智能法》立法尚处热议阶段,不同版本的专家建议稿都显示出对欧盟AI风险分级治理方案的偏向[3]。但其对于侵权归责逻辑的设计仍十分模糊,没有充分回应AI风险分级治理方案引入后的民行衔接难题。由此,本文将在考虑行政法与侵权法适用边界的基础上,提出能够妥善缓解新型AI技术风险救济难题,又能兼顾法律体系化的新方案。具体而言,本文第一部分将详细说明“基于AI风险分级的侵权归责逻辑”的概念、形成以及弊端,揭示AI风险分级治理方案介入后的一系列民事侵权体系冲击;第二部分将纠正隐藏于“基于AI风险分级的侵权归责逻辑”下的认识误区,回归“基于权利客体差异的侵权归责逻辑”;第三部分将论述“基于权利客体差异的侵权归责逻辑”的内部构造、界定的行政法与侵权法基本适用边界,同时说明用于接纳新型AI技术风险的原则性规定的适用方法,以纾解人工智能侵权立法中的归责逻辑冲突。


本文详细内容请下载:

https://www.chinaaet.com/resource/share/2000006903


作者信息:

徐榕岭

(互联网法治研究院(杭州),浙江杭州310000)


官方订阅.jpg

此内容为AET网站原创,未经授权禁止转载。
人工智能 风险分级治理 侵权立法 民行衔接