今年6月,欧洲议会以499票赞成、28票反对和93票弃权,高票通过了《人工智能法案》谈判授权草案。按照欧盟立法程序,欧洲议会、欧盟成员国和欧盟委员会将开始“三方谈判”,以确定法案的最终条款。
欧洲议会称:“已经为制定史上首部人工智能法案做好谈判准备”。美国总统拜登释放管控AI信号,有美国国会议员提交了AI监管立法提案。美国参议院民主党领袖查克·舒默展示了他的“人工智能安全创新框架”,并计划在短短“几个月”内制定联邦层面的人工智能法案。
我国相关立法也已提上日程,人工智能法草案预备在今年内提请全国人大常委会审议。目前,首批境内深度合成服务算法备案清单也已经出炉。
尽管中国、美国、欧盟都倡导准确、安全、透明度等原则性的AI监管理念,但在具体思路和方式上,存在许多不同。颁布全面的AI法律,背后是对自身规则的输出,欲掌握规则优势。
国内一些专家呼吁尽快开展人工智能法律规制,但目前面临的现实难题不容忽视。此外还有一个重要的考虑是:要监管还是要发展。这并不是一个二元对立的选择,但在数字领域,平衡两者却颇为不易。
欧盟冲刺 中美提速
如果一切顺利,欧洲议会通过的《人工智能法案》有望在今年年底前获批。全球首部综合性人工智能监管法律很有可能落地欧盟。
“该草案会影响其他处于观望的国家加速立法。一直以来,人工智能技术是否应当纳入法治监管范畴始终争议不断。现在来看,《人工智能法案》落地后,相关网络平台,如业务内容以用户信息生成为主的平台,势必会承担更高的审核义务。”北京航空航天大学法学院副教授赵精武称。
作为数字战略的一部分,欧盟希望通过《人工智能法案》全面监管人工智能,其背后的战略布局也已摆到台面。
北京万商天勤(杭州)律师事务所执行主任彭晓燕表示,《人工智能法案》除适用于欧盟境内,还规范位于欧盟之外、但系统输出数据在欧盟使用的系统提供方或使用者。极大扩展了法案的管辖适用范围,也可以窥见抢占数据要素管辖范围的端倪。
《人工智能法案》最新草案加强了对通用人工智能的透明度要求。例如,基于基础模型的生成式AI必须要对生成的内容进行标注,帮助用户区分深度伪造和真实信息,并确保防止生成非法内容。此外,公共场所的实时远程生物识别技术从“高风险”级别调整为“被禁止”级别,即不得利用AI技术,在欧盟国家的公共场合进行人脸识别。
最新草案也进一步提高了违法处罚数额,将最高3000万欧元或侵权公司上一财政年度全球营业额的6%,修改为最高4000万欧元或侵权公司上一年度全球年营业额的7%。这比欧洲的标志性数据安全法律《通用数据保护条例》所规定的,最高可处以全球收入的4%或2000万欧元罚款高出不少。
美国联邦政府首次正式涉足人工智能监管领域是在2020年1月,当时发布了《人工智能应用监管指南》,为新出现的人工智能问题提供监管和非监管措施指引。2021年出台的《2020年国家人工智能倡议法案》更多算是在AI领域的政策布局,与人工智能治理和强监管还有一定距离。一年后,美国于2022年10月发布的《人工智能权利法案蓝图》(简称“《蓝图》”)为人工智能治理提供了支持框架,但并不是美国官方政策,不具备约束力。
美国AI立法进展甚微,已招致许多不满。不少人批评,在数字经济的规则制定方面,美国已落后欧盟和中国。不过,或许是看到欧盟《人工智能法案》即将走过最后“关卡”,美国国会近期出现了立法加速迹象。
虽进度并未赶上欧盟,但我国相关立法也已提上日程。6月初,国务院办公厅印发《国务院2023年度立法工作计划》,其中提到,人工智能法草案等预备提请全国人大常委会审议。
按照我国《立法法》的规定,国务院向全国人大常务委员会提出法律草案后,由委员长会议决定列入常务委员会会议议程,或者先交有关的专门委员会审议、提出报告,再决定列入常务委员会会议议程,后续一般需经历三次审议后再交付表决。
监管模式倡导安全和透明度
中国、美国、欧盟是全球AI发展的主要驱动力,但三者在AI立法方面也存在一些不同。
欧盟《人工智能法案》从用途、功能等角度将人工智能应用风险分为4个层级,无论草案经过几轮修改,“风险分级”仍然是欧盟治理AI的核心理念。
在最新草案中,欧洲议会扩大了“不可接受的风险”清单,防止人工智能系统出现侵入性和歧视性。全面禁止公共空间生物识别、情感识别、预测性警务(基于侧写、地点或过去的犯罪行为),以及从网络随意抓取面部图像等六类人工智能系统。第二类是对人类安全或基本权利产生负面影响的人工智能系统,会被视为“高风险”。例如,航空、汽车、医疗设备等产品中使用的AI系统,以及必须在欧盟数据库中注册的八个特定领域,涵盖关键基础设施、教育、培训、执法等。在符合人工智能规定和事先合格评定的情况下,各种“高风险”人工智能系统将获得授权,遵守一系列要求和义务才能进入欧盟市场。
因有着严格的监管条款,《人工智能法案》被很多业内人士视为长了许多尖锐的“牙齿”。不过,该法案也试图在强监管和创新之间寻求平衡。例如,最新草案要求成员国至少建立一个可供中小企业和初创企业免费使用的“监管沙盒”,在一个受监督和安全可控的场景中,对创新性人工智能系统在投入使用前进行测试,直到满足合规要求。欧盟普遍认为,该提议不仅可以让当局实时关注技术变化,也帮助AI企业减轻监管压力的同时能继续创新。
美国同欧盟、中国一样,都支持主要基于风险的人工智能监管方法,倡导准确、安全、透明度。不过,美国监管思路更注重利用AI,推动AI行业的创新和发展。
与欧盟具有更加明确的调查权和全面的监管覆盖范围相比,美国采取了一种分散化的人工智能监管方式,部分州和机构以较小程度推进AI治理。这样导致的结果是,全国性的AI监管倡议都非常地宽泛和原则化。
在对具体AI应用上,欧盟《人工智能法案》对聊天机器人有透明度要求,而在美国还没有联邦层面的规定。面部识别被欧盟视为“不可接受的风险”,美国则是通过美国国家标准与技术研究院(NIST)人脸识别供应商测试计划提供公共信息,但不强制制定规则。
我国立法面临诸多现实难题
我国对于人工智能的立法早已起步,2017年国务院发布的《新一代人工智能发展规划》提出,到2025年,初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。
地方上,2022年,深圳市出台《深圳经济特区人工智能产业促进条例》,被看作我国首部人工智能产业专项立法。《条例》提到,完善人工智能领域监管机制,防范人工智能产品和服务可能出现的伦理安全风险和合规风险。
当前,我国人工智能规制主要由几大部委共同推进,分别从不同领域推动人工智能领域的规范和发展。《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法(征求意见稿)》等规范性文件也相继出台。
随着AI立法热度升温,国内开始有专家呼吁尽快开展人工智能法律规制。在赵精武看来,我国人工智能专门立法具有一定的可行性,但是也面临着诸多现实难题。
“一是立法文件之间的体系衔接问题,人工智能专门立法与其他规范性文件之间的适用关系尚未解决,尤其是专门立法与现行立法在内容层面的重叠问题亟待解决。二是人工智能技术更新迭代速度加快,保障法律与技术的同步发展存在一定的难度;三是人工智能监管规则缺乏整体性,数据、算法和算力三大核心要素的监管规则仍处于探索阶段;四是人工智能立法的重心究竟是以安全风险治理为主,还是以产业发展保障为主争议较大。”赵精武说。
无论是欧盟的《人工智能法案》,还是中国、美国等国家针对AI的规定、倡议、规划,都在试图构建一个完善的监管框架:既能确保安全,又能为AI创造更好条件。(来源:中国新闻周刊)
SourcePh" style="display:none">

首页




放大
上一版