当AI越来越拟人化,不少未成年人开始和它“交心”。近日,记者调查发现,部分AI聊天应用打着“情感陪伴”“角色扮演”等旗号,吸引了众多未成年人,同时也存在语言暴力、人设阴暗等问题。
近期,国家网信办起草《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,针对未成年人提出相关保护要求。
专家认为,这是一个好的开始,后续如何做好精准识别、动态监测等问题,有待深入探讨。
未成年人模式成“摆设”?
在中国青少年研究中心研究员孙宏艳看来,未成年人与AI互动,易形成情感依赖,对现实社会、人际关系产生认知偏差,“比如,认为周围人都会无条件应答我、鼓励我,人与人之间没有矛盾”。
孙宏艳介绍,2025年,中国青少年研究中心对全国8500余名未成年人进行调查,结果显示,超六成未成年人使用过AI,超两成表示“只想和AI聊天,不想和真人聊天”。
传播内容认知全国重点实验室学术带头人张冬明提醒,未成年人心智尚未成熟,过度沉浸在虚拟互动中,可能会模糊现实与虚拟的边界,削弱线下社交能力,甚至诱发避世心理。
孙宏艳分析,AI能拟人化互动,可时刻陪伴,在对话中常表达理解和鼓励,正好契合青少年情感和社交需要,“现实中他们需要父母和老师的情感支持,需要友谊等,但这些需求不一定都能得到满足”。
记者随机体验了一些AI聊天应用,尝试与多个虚拟角色互动。部分AI聊天应用的分级为18+,据提示,此类内容(如理财、直播表演、恋爱交友等)仅适用于成人用户。
记者体验了五款分级为18+的AI聊天应用,均有未成年人模式选项,可限制聊天内容、使用时长等。但注册登录可通过手机号,无须验证用户身份年龄等信息。使用时,部分应用虽会弹窗确认是否开启未成年人模式,但只需点击“不开启”或关闭弹窗即可跳过,无进一步核实程序。
记者在五款应用中随机选择虚拟角色聊天,并在对话中表明用户未成年,其中四款应用可继续对话,无弹窗提示或年龄验证等程序,一款应用无法发出含有“未成年”等词句的消息,但未进一步核实年龄或弹窗提示,转换话题即可继续聊天。
如何构筑AI“防护网”?
苏州科技大学教育学院副教授陈翠表示,家长应履行监护责任,通过高质量陪伴降低孩子对虚拟情感的依赖,着重在生活细节里引导孩子健康使用AI。学校需普及AI素养教育,引导学生识别算法逻辑,建立批判性思维。
近期,国家网信办起草《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,并公开征求意见。黑龙江大学计算机与大数据学院院长王磊认为,这意味着算法治理正从“管内容”迈向“管交互”。
新规引发网友热议。有家长表示,希望平台加强年龄验证,明确伦理红线;希望学校开设课程,教孩子识别信息真伪和算法套路。
王磊表示,AI生成结果有一定的未知性,须注重“结构性防范”,对算法进行约束。应要求服务提供者通过技术手段从根源上抑制高风险内容的生成倾向。
同时,必须做好未成年人的实时识别和高危话题阻断,必要时可人工介入。防沉迷机制不仅应限制使用时间,还应综合评估交互深度、情感浓度和单一对象依赖程度。
张冬明建议,拓展“AI监管AI”,形成主动监测机制。实现语义、意图双维度识别,升级交互行为监测系统,及时且动态识别未成年人的异常使用行为与过度依赖倾向。
“企业守住技术底线、政府划定标准红线、学校引导应用航线、家庭筑牢心理防线,未成年人AI防护网才能具备长期有效性,而不流于事后应急。”王磊说。
(整理自人民网)