DeepSeek类人工智能发展的法律保障研讨会综述

探索数据治理与法律实践的融合路径

上海法治报 2025年02月19日 朱非

  2月9日,由北京数字经济与数字治理法治研究会主办,中国人民大学区块链研究院、中国农业大学数据资产教授工作站(筹)、数据合规50人论坛承办的“DeepSeek类人工智能发展的法律保障”研讨会举行。

  实现技术、产业发展与外部治理的平衡

  中国社会科学院法学研究所研究员姚佳作题为“人工智能的数据利用制度”的发言。

  她对比了中国、欧盟和美国的数字经济法律制度,认为人工智能治理也存在“科林格里奇困境”,即如何平衡发展和风险防范的问题。数据质量和丰富性直接影响人工智能大模型的公平性、准确性和稳健性。从当下发展来看,已出现个人信息保护、知识产权保护与人工智能数据利用之间的矛盾。如何破解这些矛盾,法律需要不断调适优化。面对人工智能的发展,应进一步实现技术、产业发展与外部治理的平衡,以实现人类福祉。

  立法需考虑数据质量管理的体系化

  西南政法大学人工智能法学院院长陈亮教授以“发展负责任人工智能背景下高质量数据供给的立法保障”为题发言。

  在数据质量立法方面,他提出了五个关键的考量因素:第一个是数据本身,包括元数据和外部数据。合成数据的重要性在DeepSeek的成功中就得到了体现;第二个是数据来源,需要考虑原始数据中关键信息被过滤、遗漏,进而影响模型的性能可能;第三个是存储、处理和访问数据的相关系统,这是确保数据质量的硬件设施;第四个是有待数据完成的任务,即通过训练数据,我们所要实现的目标到底是什么?最后一个是各类数据处理者的相关行为。他认为未来人工智能立法需要考虑几个未尽事宜:第一是数据碎片化,第二就是数据传输过程当中数据丢失,第三是数据隐私与数据质量的平衡,第四是数据质量管理的系统化和体系化。

  审查认定人工智能证据需谨慎

  吉林大学法学院谢登科教授以“人工智能证据的理论争议与实践困境”为题作演讲。

  他认为,确定人工智能证据所归属的种类至关重要,因为不同种类的证据类型适用的证据规则并不完全相同。目前,大多数研究将人工智能证据认定为科学证据或准鉴定意见,但这种认定存在局限性。他还提到,人工智能生成物也可能体现为电子数据,例如文字、图片、短视频等。在知识产权领域,人工智能生成物的著作权纠纷较为常见。然而,传统的电子数据分类方法可能不完全适用于人工智能证据,因为人工智能证据在形成过程中体现了机器学习的经验,其真实性需要结合具体应用场景进行审查认定。因此,在审查认定人工智能证据时,可能涉及技术性问题,如算法黑箱和技术偏差。这些问题可能影响人工智能证据的可靠性和真实性,需要在审查认定过程中加以区分和考量。

  设置生成式人工智能时代身份标识法则

  中国政法大学郭旨龙教授的发言围绕“生成式人工智能时代的身份标识法则”展开。针对生成式人工智能时代的社交机器人的失范行为,他认为现有的规制手段有局限性。

  对此,他提出了身份标识这种前端的规则设定,并对身份标识法则的实施提出了具体建议。

  第一,标识的内容和类型应根据风险强度和范围的变化进行调整,高风险的社交机器人应从一开始就进行标识。第二,标识的时机和方式需要细化,应当最迟在第一次接触或互动时提供清晰可区分的身份标识信息。第三,标识方式应以显示标识为主,以防范混淆和操纵的风险,但在特别场合可以例外。他认为,人工智能系统和类型具有多样性,我们难以实时识别,但以事前标识、显性标识、普遍标识为原则,以事中标识、隐性标识、标识豁免为例外可以成为人工智能时代社交机器人身份标识的一个基本方案,来确保社交机器人的身份标识法则有效实施,为建立生成式人工智能时代追求真相和兼顾秩序的人机交互格局,提供具备可行性的基础技术和法律方案。(朱非  整理)