第B02版:法学院

版面概览

上一版  下一版   

 

2024年03月20日 星期三

 
 

放大  缩小  默认    下一篇

 

为我国人工智能立法建设提供体系性意见

《人工智能法(学者建议稿)》发布

□  记者  朱非

3月16日,“AI善治论坛  人工智能法律治理前瞻”专题研讨会在京举办,会议发布了《中华人民共和国人工智能法(学者建议稿)》。会议分为“《人工智能法(学者建议稿)》交流”“人工智能法律治理问题研讨”两个单元,与会专家共同探讨了如何更好地引导和规范未来人工智能产业的健康发展。

据介绍,起草专家组由中国政法大学数据法治研究院、西北政法大学法治学院、中国信息通信研究院、北京航空航天大学法学院、华东政法大学数字法治研究院、西南政法大学科技法学研究院、中南财经政法大学知识产权研究中心七家单位的专家组成。起草专家组经过一年的紧张工作,特邀国内人工智能治理领域的技术专家、法律专家、实务专家提出建议,为完善《人工智能法(学者建议稿)》提出具体意见,共同回应现实需求,为立法建言献策。

“学者建议稿”为我国人工智能立法提供参考

中国政法大学副校长、数据法治研究院院长时建中教授认为,人工智能立法,需要明确《人工智能法(学者建议稿)》的定位和目标,确定调整范围和对象,提炼需要立法解决的问题,特别是重点问题,进而提出相应的法律对策,并为技术进步和制度完善预留接口。同时,他表示,研究人工智能立法,对于人工智能相关学科的发展有着特别的助推作用。

《法律科学》主编、西北政法大学法治学院教授杨建军介绍了《人工智能法(学者建议稿)》的起草背景。他表示,推出《人工智能法(学者建议稿)》有如下三点动因:

一是彰显主张。本建议稿明确主张“高擎发展旗帜,彰显人本主义”。现阶段的中国的人工智能立法需明确发展目标,推动建立人工智能技术产业健康发展的良好生态。在制度设计中应彰显人本主义,贯彻我国《全球人工智能治理倡议》中“以人为本”的人工智能治理主张。

二是聚焦问题。“学者建议稿”意在抛砖引玉,通过对制度设计的重点和焦点问题的讨论,为我国人工智能立法提供参考。

三是凝练共识。未来由会议主办单位成立的AI善治研究共同体,将组织系列论坛。汇聚各界主张与观点,在多轮讨论中深化产学研共识,营造监管、学界和业界充分交流的良好生态。

明确人工介入原则最大限度控制技术风险

中国政法大学数据法治研究院教授张凌寒对《人工智能法(学者建议稿)》的总体情况进行了介绍,建议稿共九章九十六条,主要内容包括一般原则、发展与促进、权益保护、安全义务、监督管理、特殊应用场景、国际合作、法律责任等,涵盖未来人工智能治理的主要问题。

她认为《人工智能法(学者建议稿)》以促进产业发展为主要特色,在目前全球激烈竞争的格局下,“不发展是最大的不安全”。我国人工智能产业“领先的追赶者”的独特国际生态位要求我们在技术和产业的国际竞争中必须以发展为制度设计的主要目标,安全问题也需要通过技术发展来回应和解决。因此,《人工智能法(学者建议稿)》中设立“促进与发展”专章,也在监督管理、责任设置等方面对此予以充分考虑,减轻人工智能产品和服务提供者的义务。

北京航空航天大学法学院院长助理、副教授赵精武指出“总则”部分的立法亮点主要有四个方面。

第一,法治与德治结合,强调科技伦理审查的重要性。《人工智能法(学者建议稿)》将科技伦理审查原则置于所有基本原则首位,强调人工智能产业发展过程中科技伦理的重要调控作用。第二,将人工智能安全拆解为数项基本原则。《人工智能法(学者建议稿)》在基本原则层面将人工智能安全这一立法目标予以细化拆解为公平公正原则、透明可解释原则、安全可问责原则、正当使用原则。第三,算力资源发展成为基本原则的重要内容。《人工智能法(学者建议稿)》提出了发展基础设施和绿色发展原则,这两项基本原则与算力资源统筹规划、算力互联互通等基础制度密切相关。第四,明确人工介入原则,最大限度控制技术风险。《人工智能法(学者建议稿)》创新性地提出人工介入基本原则,避免完全自动化决策对个人权益可能产生的负面影响。并且,在兼顾技术创新与技术安全的双重立法目标下,通过人工介入的方式最大限度地预防用户终端可能产生的各类技术安全风险,避免对技术研发环节作出过多的限制。

人工智能立法不能突破技术创新规律

中国社会科学院法学研究所研究员支振锋提出:第一,我国《人工智能法》应基于自身实践和国情,同时广泛吸纳借鉴欧盟,美国等人工智能相关立法。第二,法律必须服从规律,法律不能挑战规律,人工智能立法不能突破人工智能技术创新规律、人工智能产业发展以及立法内在规律。第三,立法的关键在于解决问题。要找准当前中国人工智能开发利用中存在的具体实践问题,在立法中给出综合性、框架性解决方案。第四,人工智能立法中涉及的数据要素供给、防止个体生物识别信息滥用等问题,有赖于相关立法的协同推进。第五,应当成立人工智能发展与监管的主管部门,避免九龙治水。第六,人工智能立法涉及的相关主体,如人工智能研发者、提供者和使用者等,要与我国既有立法体例相协调。

中国人民大学未来法治研究院执行院长、法学院副教授张吉豫认为,《人工智能法》在把控风险的同时,也要促发展。事前的科技伦理审查确有必要,但可以考虑删除一些不必要的事前义务。对于所有大型基础模型未来是否都进行较严的监管是需要考虑的,并非所有人工智能均需要备案,备案是进入市场的前置要求还是仅为一项待完成的任务有待思考。从促发展的角度而言,监管行为本身的规范也是比较重要的方面。责任方面,绝大多数情况下适用过错责任原则是比较合适的,法律责任条款之间的衔接性有待明确。服务提供者的定义需要进一步明确,因为这涉及责任界定问题。条款主要针对生成式人工智能,对于其他类型人工智能的服务提供者也应纳入讨论范畴。

时建中为会议作总结发言时表示,基本概念的界定十分重要,如何将技术术语转换为法律语言值得思考,希望通过法律和技术良性互动,促进人工智能向善发展。

 

 

内 容 版 权 归 报 社 所 有

上海法治报