《人工智能法(示范法)1.0》(专家建议稿)在京发布

推动人工智能依法治理和发展

上海法治报 2023年08月23日

□见习记者  朱非

本报讯  日前,由中国社会科学院法学研究所主办,中国社会科学院法学研究所网络与信息法研究室、南财合规科技研究院等共同承办的“全球治理话语竞赛下人工智能立法的中国方案”研讨会在京举行。会上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》起草组发布了《人工智能法(示范法)1.0》(专家建议稿)。“示范法”坚持中国式治理思路,既鼓励技术发展,又坚守安全底线,是具有综合性、统辖性的立法设计。

聚焦潜在风险增设安全义务

目前国内在个人信息保护、数据安全、网络安全、互联网信息服务、知识产权、竞争法等方面已有清晰、成熟的法律制度体系,示范法则聚焦人工智能应用过程可能造成的潜在风险,保障人工智能产品与服务的公开、透明、公平与可解释,并依法进行科技伦理审查。

鉴于人工智能模型算法的运行机制并不完全明晰,会产生“开悟”“涌现”现象,可能导致违背预期的结果。起草团队还要求相关主体在履行一般安全义务的同时,需保障人工智能的运行结果符合预期,保证其服务的稳定,确保人类对人工智能的监督和控制,促进技术向善。此外,示范法采取负面清单管理机制,明确将符合一定条件的人工智能研发、提供活动纳入清单,对清单内活动进行事前监管,并规定了相应程序,赋予实施负面清单内行为的主体以特别义务。

给研发企业发展空间和试错机会

示范法最终采取负面清单管理机制,在明确对清单内活动采取事前监管机制之外,允许负面清单外活动保留更大自主性,采取事前备案、事后执法方式,减轻企业负担。这一制度设计同样要求及时制定和更新负面清单,示范法对此进行了主管机关职责、清单更新期限等要求,以督促相关部门积极履职。

此外,考虑到创新发展过程中应有必要的容错机制,示范法对行为主体责任承担也设计了相应的豁免条款。例如:“人工智能研发者、提供者承诺限期整改合规,且能够有效避免人工智能研发、提供或使用活动造成危害的,可以不暂停相关活动。国家人工智能主管机关认为可能造成危害的,可以责令暂停相关活动。”在相应条款设计上最大限度上给予人工智能研发企业充分的发展空间和试错机会。示范法还授权国家人工智能主管机关制定依法不予行政处罚清单,对符合标准的轻微违法行为采取会商、约谈等手段督促整改,避免给技术创新造成过度影响。

依据不同行为规定相应责任义务

示范法结合人工智能发展状况、技术特点设计了不同主体责任。主体责任分配是法律设计的核心关键环节,人工智能行业生态正在快速发展,主体多样化,产业链迅速扩大。主体的界分已不再是传统互联网平台治理时期的以平台为主特点,需要考虑当前的技术特点,并应放眼长远,看到未来通用人工智能的方向。

经反复深入研究,起草团队跳出具体应用场景,根据人工智能技术链条将主体定为“研发者-提供者-使用者”三层结构,依据不同的研发、提供和使用行为规定相应责任义务。即使在不同场景下,同一主体身份可能存在交叉重合,也无需另行制定规范,仅需基于其实际开展的活动匹配相应义务。这一结构设计避免了过细的主体责任分配损害应用层面商业模式发展,直接穿透底层技术逻辑、服务提供路径,并同时保证了风险防范、安全保障义务能够得到顺利履行。

据了解,2023年上半年以来,在持续、长期追踪研究人工智能发展、监管的基础上,中国社会科学院国情调研重大项目《我国人工智能伦理审查和监管制度建设状况调研》课题组主持人、中国社会科学院法学研究所网络与信息法研究室副主任周辉组织多方专家团队,经多次调研、讨论、修改,起草形成《人工智能法(示范法)》。“示范法”立足时代前沿,把握人工智能发展规律和全球治理趋势,在为国家关立法提供参考的同时,也期待通过1.0、2.0及至N.0的迭代讨论,不断适应人工智能发展安全态势,更好推动凝聚依法发展和治理人工智能的共识。

SourcePh" style="display:none">