近日,国家网信办、国家发展改革委、工业和信息化部、公安部、市场监管总局联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自7月15日起施行。
《办法》规定提供拟人化互动服务的基本要求,明确不得从事生成危害国家安全、荣誉和利益,煽动颠覆国家政权、推翻社会主义制度等内容的活动;不得生成鼓励、美化、暗示自残自杀等损害用户身体健康,或者语言暴力等损害用户人格尊严与心理健康的内容;不得过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系;不得通过情感操纵等方式,诱导用户作出不合理决策,损害用户合法权益。
《办法》要求拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;向不满十四周岁未成年人提供其他拟人化互动服务的,应当取得未成年人的父母或者其他监护人的同意。
拟人化互动服务提供者应当建立未成年人模式,提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项;针对不同年龄段未成年人保护需要,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等。
拟人化互动服务提供者应当在保护用户隐私权和个人信息的前提下,采取有效措施识别未成年人用户身份;识别为未成年人用户的,应当将相关服务切换至未成年人模式或者按照国家有关规定采取其他措施,并提供相应申诉渠道。(记者 苏珊)
编辑/董明洁