设计应用

揭开“算法的面纱”:关于构建算法解释框架的思考

作者:刘 烨
发布日期:2023-11-01
来源:网络安全与数据治理 10期

0     引言

在人工智能领域,算法得以持续运作、生成决策的前提在于算法可解释。可解释性是保障算法可被信赖的安全特征,连通着算法自动化决策与法律规制。近年来,算法模型复杂度的大幅提升,算法使用者与决策最终受众之间的“解释鸿沟”也随之扩大。而就算法这种尚未能够为人们所充分理解与把握的事物而言,出于对法律规范的可预测性和可接受性的考量,立法者需要谨慎考虑是否作出法律上的要求或安排。因此,如何有效解释算法,成为解决治理问题的重要环节。

在如何更好地解释算法本身及其自动化决策,尤其在如何让用户有效理解算法的基本原理和运行机制方面仍待进一步完善。基于此,本文试图以“场景化分析”为切入口,梳理算法可解释性在算法治理中的现实困境,思考在具体场景之下的优化方案。




本文详细内容请下载:https://www.chinaaet.com/resource/share/2000005742




作者信息:

刘烨

(同济大学法学院,上海200092)


微信图片_20210517164139.jpg

此内容为AET网站原创,未经授权禁止转载。
算法治理 自动化决策 可解释性 解释标准