设计应用

生成式人工智能对个人信息保护的挑战与治理路径

作者:万美秀
发布日期:2024-05-07
来源:网络安全与数据治理

引言

ChatGPT为代表的生成式人工智能掀起了全球第四次科技革命浪潮,成为带动全球经济增长的新引擎[1]。然而,作为新一代人工智能技术,生成式人工智能在不断迭代更新与变革生产关系的同时,也带来了诸多个人信息保护的法律风险。生成式人工智能的运行以海量用户的个人信息为基础,在输入端、模拟训练端、模拟优化端、输出端等各环节都离不开个人信息的使用。在大规模的数据处理和不透明的算法黑箱背景下,生成式人工智能便产生了违法收集个人信息、制造虚假有害信息、算法偏见与歧视等问题。对此,各国监管部门广泛关注,美国、法国、意大利、西班牙、加拿大等多国政府已宣布对ChatGPT进行调查监管,并出台了相应监管规范。2023年7月10日,我国网信办等七部门也联合发布了《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”),明确了促进生成式人工智能技术发展的具体措施,对支持和规范生成式人工智能发展作出了积极有力的回应。但需要注意的是,《暂行办法》对个人信息保护的规定仅在第4、7、9、11、19条中援引《个人信息保护法》的相关规定,对使用生成式人工智能技术侵犯个人信息权益呈现出的新问题缺乏专门规定,而继续延用《个人信息保护法》面临诸多适用困境。


本文详细内容请下载:

https://www.chinaaet.com/resource/share/2000005969


作者信息:

万美秀

(南昌大学法学院,江西南昌330031)


Magazine.Subscription.jpg

此内容为AET网站原创,未经授权禁止转载。
生成式人工智能 ChatGPT 个人信息保护 治理路径