近日,国家互联网信息办公室、国家发展和改革委员会、工业和信息化部、公安部、国家市场监督管理总局等五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起施行。
近年来,人工智能拟人化互动服务快速发展,在文化传播、适幼照护、适老陪伴等领域的创新应用不断涌现。与此同时,危害未成年人身心健康、影响网络信息安全等问题日益显现。出台《办法》,既是促进人工智能拟人化互动服务健康发展的重要要求,也是防范有关安全风险的现实需要。
《办法》明确,国家坚持发展和安全并重、促进创新和依法治理相结合的原则,鼓励拟人化互动服务创新发展,对拟人化互动服务实行包容审慎和分类分级监管,促进拟人化互动服务向上向善。
《办法》强调,提供拟人化互动服务,应当遵守法律、行政法规,尊重社会公德和伦理道德。拟人化互动服务提供者应当具备用户隐私权和个人信息保护、过度依赖风险预警、情感边界引导、心理健康保护等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为服务目标。
《办法》要求,拟人化互动服务提供者发现用户出现过度依赖、沉迷倾向的,应当以弹窗等显著方式动态提醒用户互动内容为人工智能服务生成;对用户连续使用拟人化互动服务每超过2个小时的,应当以对话或者弹窗等方式提醒用户注意使用时长。
《办法》特别规定了拟人化互动服务者需履行的未成年人保护义务。例如,拟人化互动服务提供者应当建立未成年人模式,提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项;不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意。
《办法》特别规定了拟人化互动服务者需履行的未成年人保护义务。例如,拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意。拟人化互动服务提供者应当建立未成年人模式,提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项;针对不同年龄段未成年人保护需要,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等。
明确安全评估情形,主要包括上线拟人化互动服务或者增设拟人化互动服务相关功能的;使用新技术、新应用,导致拟人化互动服务发生重大变化的;注册用户100万以上或者月活跃用户10万以上的;存在可能影响国家安全、公共利益等安全风险等。规定重点评估内容,主要包括服务安全保障措施建设情况,训练数据处理情况,用户极端情境的识别、应急处置、干预管理等情况,用户规模、使用时长、年龄结构等情况,用户申诉和公众投诉、举报受理、处置情况等。明确算法备案要求,明确拟人化互动服务提供者应当按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续,网信部门对备案材料实施年度核验等。
《办法》适用于利用人工智能技术,提供模拟自然人人格特征、思维模式和沟通风格的持续性的情感互动服务;提供智能客服、知识问答、工作助手、学习教育、科学研究等服务,不涉及持续性的情感互动的,不适用《办法》。


VIP复盘网