□ 唐樱原
随着数字技术的不断创新和深度应用,现代法学已然开启了向数字法学的全新转型。在“数字中国”的整体框架指引下,司法人工智能已在实践中广泛应用,承担着重要的使命,发挥着关键的作用。但是,司法人工智能利用精准预测功能为人们提供高效协助的同时,也引发了人们对该决策结论是否正确的疑虑。在传统的司法裁判中,法官始终在规范的范畴内进行思考和裁决,并且最终的决策结果需要接受社会一般人的审视和问责;而在数字化的智能裁判中,算法决策过程的不可见性和不可解释性,使得人们无法接受和信任机器所输出的结论。
司法人工智能论证缺失的研讨背景
司法人工智能论证缺失的难题随着人工智能的迭代升级而愈发严峻,不过我国也采取了相应的立法规制措施。《个人信息保护法》《生成式人工智能服务管理暂行办法》《最高人民法院关于规范和加强人工智能司法应用的意见》等法律法规均对人工智能的法律治理作出了有关透明度原则的规定,从而保证最终落地的结果符合公平公正的价值取向。
但是应注意的是,司法人工智能的论证缺失难题并不仅仅局限于形式上是否公开透明,还需要积极探索智能决策在实质逻辑层面是否能够接受可解释性的说理与问责。智能决策需要依赖具有透明度的决策系统,利用论证说理的方式,达到可解释性的目的,从而厘清决策逻辑和决策方法,赢得公众的信任。可见,对司法论证说理缺失难题的探讨是在数字时代提升司法公信力的道路上难以逾越的关键环节,需要回溯法学理论的根基以弥合论证过程的断裂,探索应对之策。
司法人工智能论证缺失的现实缘由
相较于通用型人工智能,司法人工智能延续了法律论证系统对可解释性的较高期待,力求构建一个将决策流程计算化可视化的体系。然而,司法人工智能论证系统的完善不免被以下困境的桎梏所束缚:事前,算法架构中存在价值的先入为主与数据内容的来源不明的情况;事中,决策程序不清晰且算法黑箱不透明;事后,决策结论缺乏可靠性与可验证性。这些情形均可能导致智能决策结果存在不正当性,决策过程存在不可解释性,从而无法满足法律规范所要求的合法性、合理性、客观性的内在要求,使得渴望寻求公平公正的相对人的双眼被蒙上了一层模糊的面纱。
进言之,司法人工智能论证缺失的现实缘由主要包括以下两方面:
一方面,结果导向思维对说理程序的忽视。著名的“中文屋论证”实验便揭示了机器对语言与规则的理解进行忽视——机器只需要尽力循环着给定的程序,最终便可以得到特定的决策结果。换言之,中文屋实质上是一个“输入-输出”的计算系统,机器根据既有的规则,对输入的数据进行匹配性处理,从而输出相应的结论。在司法人工智能的运行过程中,由于数据和算法本身存在缺陷,无法为司法人工智能的决策提供可靠的支撑与动力,进而导致无法输出一个具有可解释性的结果。从司法大数据角度看,数据本身的总体量较大,其中包含着许多未经清洗的“脏数据”、量化困难的非结构性数据、来源片面的非典型数据。由于这些数据没有经过人为地逐一筛选和审阅,导致其在结构上多表现为简单累加的堆砌型数据存储模式,不能为高效的智能计算提供完整的数据化转换基础。从算法的角度来看,当人们持续将案件事实输入到算法模型中时,机器极有可能为了提高决策效率,不再对代码设计者先入为主的价值嵌入进行排除,同时也忽略了对算法黑箱和算法歧视现象的考量,进而陷入被算法意志操控的困境之中。
另一方面,事实性推演与规范性推理的连结模糊。一些狂热的人工智能爱好者仅以数据经验为基础,以寻求其中的相关性规律。其将智能决策简单定位为事实性命题,而脱离了法律规范命题的范畴。可是,通过大量的经验数据进行相关性的统计判断和特征拟合,实质上只是将生活世界中的规律和经验作为遵循的依据,并未体现出规范层面的充分论证与说理,不能体现法律上特定行为的“因”和相应责任的“果”的规范性联系。同时,仅以“数据可以说明一切”的统计方式得出的相关性结果,极可能是假相关关系——即数据的随机性大概率造成了结果巧合的出现,数据信息间可能实际上并未存在任何实质的关联性。
司法人工智能论证缺失的实践应对
对于司法人工智能论证缺失的问题的解决,算法系统的内部完善与论证系统的外部构建应当同步推进,如此方能有力突破长期以来一直难以攻克的可解释性难题。
第一,从算法内部的话语转化视角切入,应构建和完善具有中国特色的法律知识图谱体系。无论是何种类型的司法人工智能,其均需要体现司法裁判的各要素特征。通过简单化、可视化、结构化的方式,将复杂多元的数据加以呈现,保证每一个计算机代码都能恰当准确地表达出其所对应的法律知识。法律知识图谱依据法律文书数据库所提供的具体法律情节,对案件内容进行提取和分析,进而实现从事实性的数据信息向法律领域知识构建的转变,构建一种规范取向的裁判模式。这个知识抽取过程实际上为信息结构化的过程,即先获取与所需案件相契合的适配性数据,再根据范围“从粗到细”“从总到分”对适配性数据所对应的文本、句子、词语进行分析和标注;最后采用深层学习算法,寻找数据来实现函数模型的自我构建和完善。法律专家和计算机专家可以从各自的专业领域将各维度和要素依次明确,从而保证新获取的知识自身具有可解释性、动态性和正确性,为后续的法律文本数据抽取行为奠定内涵和外延的遵循。只有从底层逻辑上明确每个知识的含义,理解代码的运行流程,方能真正从技术层面助力司法裁判的高质效运转。
第二,从算法外部的论证程序视角切入,应从以下方面进行协同推进。首先,司法人工智能在解决论证缺失的难题时,应充分发挥论证自身所具备的可解释性的基本属性。可以通过论辩的方式对法律规范的适用和事实证据的认定进行可解释性的回应,对法律推理的方法和过程进行阐明,以保证法律程序的正当性与最终结论的可接受性。算法设计者向监督审查者、相对人与公众传递解释性讯息的这一行为,是借助双方的互动,以实现让讯息接收者理解并信任智能决策结论的目标。可见,弥补司法人工智能论证缺失的根本路径仍是要以人为核心,只有讯息接收者真正理解和认同了决策的运作机制和内在标准,方可破解论证程序缺失的局限性,满足社会对人工智能决策的可解释性要求。
其次,对于司法人工智能本身的地位而言,尽管其拥有人类无法企及和无法超越的计算能力,但是也应处于工具性的辅助地位。在技术嵌入司法裁判后,科技应用与人类裁量的耦合过程必然是复杂的,模型化不断向前吞噬和逼近法官的审判权,易陷入“技术至上”的误区。在二者内在功能的碰撞中,一味推崇数字化科技手段难免会打破已有的司法建设成果。因此,法律人应在互动中不断冲破令法律方法和法律思维规格化的桎梏,追求规范性的因果论证,防止将决策沦为“自动售货机”式的简单判决。
最后,应重视在庭审活动中的主体间性的交互。在物理时空与虚拟时空双重并行的发展进程中,在扁平化可视流程的协商性场景里,参与法庭辩论的当事人真实且正当地表达自身观点,共建情景互动的灵活司法场景。不同立场的个体展开理性辩论,积极表达对所涉案件事实的理解和思考,不断还原事实真相,达成规范共识。而后与司法人工智能所传送的解释性讯息相比对,对其无法接受和理解的部分予以论辩,反向推进司法人工智能的智能决策体系的完善。
结论
综上,在司法人工智能的辅助裁判下,我国法院建设与现代科技深度融合,加快了国家治理的现代化进程。但司法人工智能也相应带来了论证说理的困境。法律论证是裁判结果具有说服力和公信力的核心,其本身也应随着时代需求而自我更新和发展,构建完善的法律论证程序和标准,从而满足公众对技术介入司法裁判的可解释性期待。(作者系华东政法大学数字法治研究院项目研究人员)