□ 记者 徐慧
近日,由同济大学法学院与上海市人工智能社会治理协同创新中心联合主办的第四届“人工智能与法律”学术研讨会在同济大学召开,会议主题为“开源大模型与人工智能立法”。
与会专家围绕开源大模型的民事法律风险、人工智能的立法与监管等话题展开研讨,为人工智能的法律监管、知识产权保护及伦理治理等方面提供了新的思路和解决方案。
我国人工智能立法应该做减法
主旨发言阶段,国家新一代人工智能治理专业委员会委员李仁涵以《人工智能发展与治理一脉相承》为题发言,他认为,人工智能立法目前存在技术迭代与法律滞后矛盾、责任认定体系重构难题、多方利益难以平衡、伦理治理量化尚存在诸多困境、技术与监管之间仍存在鸿沟、跨国法律规定不协调等六大挑战。
他建议,构建AI基本立法、数据治理立法、人工智能伦理立法、责任认定特别法、劳动保障适应性改革以及全球治理协同机制等,以形成一套规范人工智能的完整法律体系。
中国社会科学院法学研究所研究员周汉华演讲的题目是《我国人工智能立法应该做加法还是减法》。他认为,我国的算法监管制度极为严格,制度设计标准模糊、成本高、不确定性较大,既不利于人工智能(小微初创)企业创新创业,也不利于形成稳定的市场预期。数据域算法领域面临的法律障碍横跨不同部门法,贯穿立法、执法、司法等不同环节,只能通过对现行法律系统的改废释等“减法”来解决,真正树立法治权威,稳定市场主体预期。
亟需建立独立自主的开源许可证体系
北京大学法学院张平教授作了题为《开源大模型的许可证选择及知识产权规则》的发言。她详细阐述了开源大模型的许可证选择及知识产权规则的复杂性,指出我国亟需建立独立自主的开源许可证体系,依托核心技术支撑,形成自主可控的许可证制度及开源社区。
同济大学法学院黄锫教授发言的题目是《我国人工智能领域包容审慎监管的法治化》。他提出,我国应在人工智能领域实施包容审慎的监管策略,以平衡技术发展与安全之间的动态关系。
专题讨论中,华中科技大学法学院郑友德教授阐释了在AI模型权重开放与公共安全之间找到平衡的必要性;浙江大学光华法学院张伟君教授结合最新的人工智能著作权侵权案例,深入剖析了大模型训练中使用数据的著作权规制路径;同济大学法学院张韬略副教授从著作权法的角度评估了使用开源代码训练大模型的法律风险;上海社会科学院法学研究所张艳研究员讨论了生成式人工智能内容治理的逻辑与进路,并提出了生成内容监管的法律框架。
同济大学法学院副院长徐钢在总结时就我国人工智能立法提出四点想法:首先,应精准区分人工智能风险,科学匹配合适的治理手段;其次,综合运用法律的立改废释,回应人工智能当前最急迫的问题;第三,继续推进人工智能法的研究与讨论,等待时机成熟再行出台;最后,要加强政府公共服务供给,减少企业合规的试错成本。