3月14日,中国社会科学院“人工智能安全治理研究”实验室发布《人工智能示范法4.0》,旨在为人工智能发展过程中的风险防范制度建设提供参考。
据介绍,《人工智能示范法4.0》是中国社会科学院“人工智能安全治理研究”实验室孵化项目阶段性成果,是对前序版本的一次全面制度设计升级。在制度框架上,本次修改明晰了多维度的责任与义务结构;在规制视野上,重点针对面向科学研究的人工智能(AI4S)、智能体应用以及基础模型风险防范等前沿议题,作出了具体的制度安排。
精细化界定人工智能使用者义务体系
在人工智能生成物权属认定及安全治理方面,《人工智能示范法4.0》积极回应人工智能新技术新应用发展需求,持续跟踪并转化司法审判中的制度创新实践,探索建立人工智能生成物产权归属和各主体权责认定规则。统筹生成内容的安全治理体系,将生成物标识作为关键安全措施加以规范。
对于人工智能使用者义务体系的精细化界定,此次修改从单一的“研发者/提供者”规制向覆盖研发、部署与应用环节的全链条责任结构延伸,构建使用者的权利义务体系。通过细化不同应用场景下使用者的行为边界与要求,确保技术应用的安全可控与权责对等。
建立以风险为基础的跨境流动监管制度
在人工智能的跨境流通促进、保障与涉外法治应对上,《人工智能示范法4.0》构建“促发展”与“防风险”并重的跨境治理框架,在完善出口鼓励与纠纷应对支持机制的同时,建立以风险为基础的跨境流动监管制度。
关于人工智能民事归责原则与责任分配,此次修改在传统侵权责任的框架下,探索构建更为科学、多元的过错认定与责任分担规则,并进一步完善“避风港”制度,在保护受害人权益与鼓励产业创新之间寻求合理的利益平衡。同时,构建与完善人工智能上下游产业链中多元主体的义务和责任,实现全链条风险共治与责任分担。(朱非 整理)