近日,北京大学法学院、北京大学法治研究中心与《北大法律评论》编辑部共同主办题为“人工智能后的法学理论与法学研究”的学术研讨会。与会专家认为,当前人工智能在研究中存在一定的局限性,但它已经成为重要的认知途径,法学研究者也应当提升自身使用AI的能力。
人工智能自身研究存在局限性
北京大学文科一级教授朱苏力作了题为《人工智能时代,我的法学研究》的主旨演讲。他认为,当下的人工智能尚不能像高水平的人类研究者那样敏锐捕捉历史中不同要素之间的联系,揭示制度变迁背后草蛇灰线的因果机制,判断社会生活、文献典籍中潜藏着哪些真问题。AI也未必可以有效辨别哪些文献更优质,哪些信息不准确。
在他看来,这些问题至少在一定时间内为法学研究者留出了研究空间,使之不至于在短期内怀疑自身做学术的意义。他通过“‘种子产出比’如何形塑中西差异”“胡服骑射如何影响并强化传统伦理”等例子,阐释了什么样的研究可能是当下的人工智能尚不能做,但研究者可通过深耕中国经验、对比中西实践、剖析微妙因果逻辑开展的,同时呼吁研究者主动探寻此类问题,追寻智识上的拓展。
AI可以协助人类降低压缩的有损程度
中国海洋大学法学院桑本谦教授以“如何回答‘为什么法律规定疑罪从无’”为例,提出人类理解法律的过程本质上是一场跨学科的接力,而不是法学学科内部的解释细化和重复。比如,“疑罪从无”原则中所包含的“合理怀疑”一词,就很难在法律内部进行准确定义,只能借助数学、经济学工具来解释。
在他看来,法学如果想要成为一个自治、独立的学科,前提就是法律条文能够对法律现象进行“无损压缩”。但由于现行法律条文本身存在着大量循环定义,且不能应对所有法律现象,其压缩只能是“有损”的。在“有损”与“无损”之间的张力地带,人工智能可以协助人类降低压缩的有损程度,但解压缩所需的价值判断,仍然需要由人类自己来完成。
法学研究者应提升自身使用AI的能力
上海交通大学凯原法学院郑戈教授围绕“人工智能作为‘或然性工具’”展开讨论。他提出,人们之所以讨厌AI幻觉,就是因为习惯了使用确定性工具,而不习惯使用或然性工具。同样,由于许多现行法律的规制对象是确定性工具,它们也很难有效处理作为或然性工具的人工智能所造成的法律问题。
他认为,人工智能已经成为重要的认知途径。人们对世界的感知理解,也愈发依赖包括人工智能在内的数智技术。因此,在学习生活中排斥使用AI是不合理的,法学研究者都应当提升自身使用AI的能力。
技术治理与法律治理应形成“双向融合”
厦门大学法学院郭春镇教授表示,在数字化时代,技术治理与法律治理应突破“嵌入型共治”的局限,通过互动形成“双向融合”的关系。
技法双向融合是对嵌入型技法共治关系的延续、推进和超越。这一思路要求在确保法律本源性地位的同时,对技术治理与法律治理进行双重改造,将技术逻辑与法治思维进行融贯,为技术治理与法律治理的关系优化提供整体性方案。具体来说,可通过探求技术治理与法律治理底层逻辑的共通性,构建一元化的运行机制,实现权力同向效应,推进二者关系的融合演进与优化发展。 (朱非 整理)