日前,上海市十五届人大常委会第四十三次会议审议了《上海市促进人工智能产业发展条例(草案)》。 《草案》细化了人工智能在互联网、医疗、交通、工作等生活应用方面的规定。
此前,我国首部人工智能产业专项立法——《深圳经济特区人工智能产业促进条例》正式公布,将于11月1日起实施。
人工智能发展需要伦理指引
此次上海和深圳立法中都将伦理要求内置其中,如设立人工智能伦理专家委员会,推动建立人工智能领域伦理道德自律规范,对涉及生命健康、公共安全等重点领域人工智能应用潜在风险开展评估。
华东政法大学法律学院教授、数据法律研究中心主任高富平在接受本报《新法讯》采访时表示,人工智能的应用要充分保护人的尊严和自由,不能危害个人隐私及对个人产生其他负面影响。在医疗诊断方面,包括手术、预防性诊疗、疾病判断、筛查等均应受到医学伦理规范;在个人信息应用方面,应尊重个人隐私和选择;在公共安全领域,公共场所下每个人的行为可以被摄像头记录,但只能服务于公共安全,否则不能进行传播和处罚;在元宇宙中有很生动的现实人的原型形象,果元宇宙中的虚拟性侵现象,涉及在虚拟世界中的生理、精神感受的保护问题,因而可以上升到刑法层面予以规制。
上海政法学院教授张继红表示,著名的“电车难题”也同样出现在人工智能领域,自动驾驶汽车是优先考虑乘客安全还是行人的安全?如果人工智能产品设计者在设计之初,就采用错误的价值观或伦理准则,会让人工智能技术在实际运行中威胁到他人的生命及财产安全。而人工智能产业的快速发展,亦对现有社会结构及价值观形成巨大的冲击效应,加剧新的社会贫富差距、产生数字鸿沟、引发群体性失业等问题。人工智能始终是人类劳动创造物,无论人工智能有多么智能也不能改变其客体属性。人工智能技术发展应当让每一个人都享有平等使用的权利,充分尊重和帮助弱势群体和特殊群体,让全社会共享人工智能带来的益处。
确保人脸信息安全是应用前提
如今,“刷脸时代”已经来到。手机电脑开机、下载应用需要刷脸,出入住宅、景点可以刷脸开门、买东西线上线下支付也都能刷脸。然而,诸多人脸识别信息发生泄漏或者被冒用,给当事人造成巨大损失。 《草案》规定,应当对生物识别信息内容进行标识,采取安全可控的技术保障措施。
张继红告诉记者,实践中有些物业或单位强制要求将人脸识别作为业主或员工进出的唯一验证方式;一些平台或APP强制索取用户生物识别信息;还有卖家在网站或社交平台公开售卖人脸信息、生物识别视频,由此引发信息泄露甚至身份盗用问题,严重损害了民众的人身及财产安全。 《草案》从技术层面提供保障和支持,最大限度降低生物识别技术应用可能带来的风险。
高富平则指出,在交通出行、门禁、支付等领域,人脸识别几乎成为验证身份的基础技术,但要确保人脸信息采集后只能用于验证身份,而不能用于其他目的,同时还要确保信息安全不被泄露。因此,在人工智能普遍应用的情况下,确保人脸信息安全成为一个前提条件。
技术须充分保护劳动者权利
现代职场中,用人单位通过在电脑上安装行为感知系统监控员工工作效率、离职倾向等,使得员工的隐私安全受到威胁。人工智能管理技术的边界何在?
对此,张继红指出,人工智能技术在职场中的应用必须遵循合法这一底线要求,不得违反《民法典》关于隐私权以及《个人信息保护法》关于个人信息权益保护的规定。劳动场景中用人单位采用视频监控、智能座椅等手段提高用工管理效率屡见不鲜,劳动者时刻笼罩在“无形的大网”监视之下的恐惧中,毫无隐私和秘密可言。因此,技术应用应充分保护劳动者的隐私和个人信息权益,并且不得侵犯平等就业和选择职业、休息休假等基本权利。
高富平表示,人工智能时代更要重视人的智能,人的判断力至关重要。人工智能技术会对个人进行各种深度分析,信息采集更加自动化。有些用人单位事先设置了包括性别、年龄等歧视性条件,侵犯劳动者合法权益。因此,人工智能风险预防需要机器通过自动学习,对给个人带来的不利后果不断反馈进行优化,逐渐消除歧视性条件。(见习记者 朱非)
SourcePh" style="display:none">

首页


放大
上一版