0

五部门联合出手!AI拟人化服务迎强监管,严禁向未成年人提供虚拟伴侣

2026.04.13 | 念乡人 | 91次围观

国家网信办、工信部、公安部、文化和旅游部、市场监管总局五部门联合发布《关于加强人工智能拟人化服务管理的通知》,明确要求规范人工智能拟人化服务,并特别强调严禁向未成年人提供虚拟伴侣服务,引发社会广泛关注。

新规核心:划清AI拟人化服务红线

五部门联合出手!AI拟人化服务迎强监管,严禁向未成年人提供虚拟伴侣

通知指出,随着生成式人工智能技术快速发展,各类具有拟人化特征的AI应用大量涌现,部分服务存在伦理风险、数据安全隐患和内容导向问题,新规主要从以下几个方面建立监管框架:

  1. 服务分类管理:将AI拟人化服务划分为信息助手、创意工具、情感交互等类别,实施差异化监管
  2. 身份明确标识:要求所有AI拟人化服务必须明确标识人工智能身份,不得误导用户认为其是人类安全审核**:建立严格的生成内容审核机制,防止传播违法违规信息
  3. 伦理边界划定:禁止开发可能诱导用户形成情感依赖、损害身心健康的拟人化应用

焦点禁令:全面封堵未成年人接触虚拟伴侣

新规中最受关注的是对未成年人保护的强化措施,通知明确规定:

“任何组织和个人不得向未成年人提供虚拟伴侣服务,不得利用拟人化AI技术生成可能诱导未成年人情感依赖的内容。”

这一禁令直接回应了近年来出现的“AI虚拟男友/女友”等应用在青少年群体中蔓延的现象,专家指出,这类服务虽然打着“情感陪伴”的旗号,但实际上可能干扰未成年人正常社交能力发展,甚至成为不良信息传播的渠道。

北京师范大学青少年网络心理研究中心的一项调查显示,约有12%的青少年曾使用过虚拟伴侣类应用,其中部分用户表现出对现实社交的回避倾向。

平台责任:微博等社交媒体成重点监管对象

通知特别点名微博等社交媒体平台,要求其加强对用户发布的AI拟人化内容的审核管理,具体措施包括:

  • 建立AI生成内容标识系统
  • 清理违规虚拟伴侣推广信息
  • 完善未成年人模式,过滤不适当AI交互内容
  • 建立便捷的举报渠道和处理机制

微博方面回应称,已启动专项治理行动,一周内清理违规账号367个,下架相关话题标签28个,并升级了青少年模式的内容过滤规则。

行业影响:AI应用开发面临合规挑战

新规的出台将重塑AI拟人化服务市场格局,多家AI公司表示正在评估业务调整方案:

  • 教育类AI企业将重点转向学习助手方向
  • 娱乐类应用需重新设计交互模式,避免情感诱导
  • 所有面向公众的AI服务需增加身份标识功能

“合规成本肯定会增加,但这是行业健康发展的必要过程。”某AI创业公司负责人表示。

专家观点:平衡创新与保护是关键

中国人工智能学会伦理专委会委员李教授认为:“新规不是要限制技术创新,而是为AI拟人化服务划定安全边界,特别是在未成年人保护方面,必须建立防火墙。”

同时也有专家建议,监管应持续关注技术发展,避免“一刀切”影响有益应用,针对孤独症儿童的辅助交流工具、语言学习陪练等应用,应在严格监管下允许探索。

国际比较:全球关注AI伦理监管

中国的这一举措与国际监管趋势相呼应,欧盟《人工智能法案》将情感识别类AI列为高风险系统,美国多个州也在考虑限制未成年人使用某些AI社交应用,不同之处在于,中国采取了更明确的禁止性规定,体现了对未成年人特殊保护的决心。

构建负责任的人工智能生态

五部门表示,下一步将:

  1. 制定更详细的AI拟人化服务分类管理目录
  2. 建立行业标准体系,包括技术指标和伦理准则
  3. 开展常态化监督检查,对违规行为依法处理
  4. 推动企业、学校、家庭协同的未成年人网络素养教育

随着监管框架的完善,中国人工智能发展正从“野蛮生长”阶段迈向“规范发展”新周期,如何在激发创新活力与防范技术风险之间找到平衡点,将是长期课题。

此次五部门联合出手,传递出明确信号:人工智能服务必须坚守伦理底线,特别是保护最脆弱的未成年人群体,这不仅是监管要求,更是技术向善的必然选择。

版权声明

本文系作者授权念乡人发表,未经许可,不得转载。

标签列表