引言
以ChatGPT为代表的生成式人工智能正以“快进键”的模式推进社会的进步,为各个领域的发展带来了诸多机遇,但所伴随的风险也对既有的技术治理体系提出了全新的挑战。目前,世界各国正通过修改法律法规和政策文件的形式,寻求生成式人工智能技术创新发展与安全治理之间的平衡,要求生成式人工智能技术人员以更加审慎负责的态度促进技术进步。人工智能时代,新型技术的快速发展呼唤着制度的变革。我国对生成式人工智能的有序发展同样予以高度重视,2023年4月11日,由国家网信办公布了《生成式人工智能服务管理办法(征求意见稿)》,同年7月13日,国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部等多个部门公布了《生成式人工智能服务管理暂行办法》(以下简称《办法》)。通过对两份文件的对比分析,可以看出我国对生成式人工智能的发展持鼓励态度,在《生成式人工智能服务管理暂行办法》中为生成式人工智能提供了更为宽松的技术创新化环境。而实践中,生成式人工智能已经深深嵌入社会发展脉络中,对传统的生产方式实现了全面的革新,但同时也对社会治理、科技伦理和法治保障等提出了前所未有的挑战,例如数据隐私侵犯和数据滥用、算法歧视和算法黑箱、不公平的AI决策和生成虚假内容等多个方面的风险,需要相关主体以负责任的态度推动该项技术的涌进。面对生成式人工智能带来的挑战,2023年5月4日,美国政府在与处于人工智能创新前沿的四家美国公司Alphabet、Anthropic、Microsoft和OpenAI的首席执行官会面后,公布了三项有关人工智能的新举措,分别是投资推动负责任的美国人工智能研究开发,对现有生成式人工智能系统进行公开评估,政府以身作则制定政策以减轻人工智能风险并利用人工智能机遇。我国国家新一代人工智能治理专业委员会也早在2019年发布过《新一代人工智能治理原则——发展负责任的人工智能》,但是并未对提出的原则制定详细规则。面对生成式人工智能技术的迅猛发展与显现的治理问题,负责任式发展生成式人工智能应是当前技术发展的新共识。鉴于此,本文在把握负责任的生成式人工智能定义的基础上,总结人工智能特性,分析发展面临的挑战,并寻求对应的破解路径,通过提升对数据安全的管理,重视对生成式人工智能系统的审查和评估,构建开放共享、普惠包容的算力资源,并尝试构建层次化的分级分类监管措施等,探索出一套能够有效推动生成式人工智能负责任发展的本土化治理体系。
本文详细内容请下载:
http://www.chinaaet.com/resource/share/2000006094
作者信息:
邓臻宇
(中南财经政法大学知识产权研究中心,湖北武汉430073)