与人互动、代写文章、编写代码等通通不在话下,ChatGPT火遍全网的同时也产生了学术造假、个人信息泄露、被用于违法犯罪等风险。日前,国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》,或将减少民众对于ChatGPT等新兴技术在使用过程中的担忧与顾虑。
平衡创新发展与维护公民权利
上海交通大学凯原法学院教授郑戈在接受本报《新法讯》采访时表示,“征求意见稿”释放出的信号是我国在数字技术和数字化产业领域立法的一贯立场,即在鼓励创新和发展与维护国家安全、公共秩序和公民权利之间保持平衡。我国近年来制定了一系列法律法规和部门规章规范这一领域的活动,从推荐算法管理、深度合成管理到目前征求意见的生成式人工智能管理。
上海政法学院人工智能法学院院长杨华教授则表示,当前生成式人工智能在使用过程中,安全隐患、公平性缺失、监管漏洞等方面问题逐步显现。全球科学界都在对人工智能可能带来的风险表达担忧,不少科学家呼吁限制甚至禁止ChatGPT4以上版本的研发。此次“征求意见稿”的发布正是为了进一步保障人工智能安全、健康、可控发展。
AI使用边界应依目的用途而定
有人用AI技术复活“奶奶”、生成虚假照片,更有甚者用AI“一键脱衣”,AI能够以假乱真、无中生有,还可能被用于非法用途,这正是民众所担忧的,AI技术使用的合理边界在哪里?
对此,杨华表示,这些行为都是常见的非法滥用AI技术的体现。界定AI技术使用的合理边界,要随着AI的技术进步制定新的技术规范和法律规范,此外,还要依据现有的法律法规,从民事、行政、刑事责任方面追究违法犯罪者的责任。
而在郑戈看来,AI技术使用的边界判定应当采用目的限定和用途限定的方法,比如一键脱衣目的本身就违法,是侵犯个人隐私的,这并不需要新的法律规则来确定。但使用AI技术来“复活”逝去的亲人则处在伦理的模糊地带,如果说有风险,那也主要是针对使用者个人,使其陷入虚假的情感慰藉,但如果没有影响到他人或社会公共利益,用法律去禁止或惩罚显然并不合适。
提供者应建立用户投诉处理机制
近期ChatGPT的一些用户消息和支付信息遭到泄露,数据安全也是各国民众的另一担忧,部分国家因此陆续宣布禁止使用ChatGPT。对此,郑戈表示,“征求意见稿”规制对象是生成式人工智能产品或服务提供者,并且明确了提供者有义务主动采取措施保护用户个人信息,不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。当用户发现个人信息权益受到侵害时,可以向服务提供者投诉,也可以向网信部门和其他业务主管部门投诉,还可以依据民法典和个人信息保护法提起诉讼。
杨华则告诉记者,“征求意见稿”规定生成式人工智能提供者应当建立“处理机制”,以应对被侵权人关于更正、删除、屏蔽其个人信息的请求,以及消除对他人肖像权、名誉权、个人隐私、商业秘密等方面的不利影响。当然,该“处理机制”的具体举措、实施程序、实施期限以及机制不合理的救济等问题,尚需进一步明确。
未来或将以更高立法层级规制
在“征求意见稿”的完善方面,郑戈表示,目前针对生成式人工智能进行专项规则制定的时机是否成熟还有待考量。若技术还处在快速发展阶段,尚未形成成熟稳定的商业模式和应用场景,其中所出现的问题都可以借助民法典、个人信息保护法、网络安全法、数据安全法及互联网信息服务推荐算法管理规定和深度合成管理规定等现有法规得到解决,不必急于立法,可以等新的问题发生、现有法律规则无法处理时再介入。过早、过严的新规或会阻碍乃至扼杀新兴技术和产业领域的发展,也可能使我国在国际竞争中出于劣势。
杨华表示,此次“征求意见稿”对生成式AI提供者的责任和义务、使用者的责任和义务以及提供者和使用者的违法行为追究机制等方面仍有很大的完善空间,随着生成式人工智能方面管理规定的密集出台及不断完善,未来会通过更高立法层级对此加以系统规制。 (见习记者 朱非)
SourcePh" style="display:none">

首页


放大
上一版