2025年12月,国家网信办就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《办法》)向社会公开征求意见,这是我国首部针对人工智能拟人化互动服务的专项管理规范。《办法》聚焦拟人化服务可能带来的敏感信息泄露、诱导消费等风险,明确了数据安全保护的核心要求,为行业健康发展划定安全红线。
《办法》在数据安全方面提出多项严格要求:一是禁止以拟人化互动服务为掩护,诱导、套取用户敏感个人信息;二是未经用户或监护人单独同意,不得将用户交互数据、用户敏感个人信息用于模型训练或向第三方提供;三是对处理的用户信息采用加密、去标识化等安全技术措施,防止数据泄露、篡改、丢失;四是处理未成年人个人信息的,需制定专门处理规则,每年开展专项合规审计,并向网信部门报送审计情况。
同时,《办法》对服务行为作出规范,要求拟人化互动服务需明确告知用户服务性质,不得误导用户认为其为真实人类;不得生成危害国家安全、损害公共利益、侵害个人合法权益的内容;设置便捷的用户投诉举报渠道,及时处理用户诉求。这些要求将推动人工智能拟人化服务从“娱乐导向”转向“安全合规导向”。
行业已启动合规自查。某智能客服企业已优化拟人化服务流程,在服务启动时明确告知用户“当前为AI服务”,并新增敏感信息采集确认环节,用户拒绝提供后不得强制索要;某社交类AI应用则停止将用户交互数据用于模型训练,对已采集的敏感数据进行脱敏处理。业内专家表示,拟人化AI服务与用户交互频繁,极易产生敏感信息泄露风险,《办法》的出台将有效规范行业发展。
随着人工智能技术的快速发展,拟人化互动服务已广泛应用于智能客服、社交娱乐、教育等领域,用户规模突破5亿人。但此前行业缺乏统一规范,部分应用存在诱导用户提供身份证号、银行卡号等敏感信息的情况,数据安全隐患突出。《办法》的实施将推动企业加大数据安全投入,预计2026年人工智能拟人化服务安全市场规模将突破25亿元,安全检测、数据脱敏等技术需求将大幅增长。