4月3日,国家互联网信息办公室发布《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《征求意见稿》),面向社会公开征求意见。其中一条核心条款引人注目:任何组织和个人提供、使用数字虚拟人服务,不得以丑化、污损等形式侵害他人人格权,未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务。
《征求意见稿》来得恰逢其时。AI短剧《桃花簪》盗用素人照片,将普通网友“白菜汉服妆造”的形象加工成品行卑劣的反派角色;多部AI生成短剧未经授权使用易烊千玺肖像和声音,其中一部播放量接近7500万;有网友利用AI软件恶搞、丑化他人肖像并在社交群组传播……一桩桩“偷脸”丑闻,暴露了一个扎心的事实,技术在狂奔,但有些人的底线却在塌方。《征求意见稿》给数字虚拟人立规矩,守住人类的“脸面”,本质上是在技术狂飙中给人类尊严拉上一道安全绳。
丑化不是创作,侵权必须追责。数字虚拟人产业爆发式增长,2025年核心市场规模预计突破480亿元,相关企业超135.9万家。巨大的利益诱惑之下,部分从业者把“偷脸”“换脸”当成赚快钱的捷径,把丑化他人形象包装成所谓的艺术创作或算法生成。殊不知,《中华人民共和国民法典》明确规定,肖像权侵权的认定标准是“可识别性”,而非技术手段,只要AI生成的角色能让公众联想到特定真实人物,就可能构成侵权。AI短剧盗用网友照片丑化处理,《桃花簪》出品方擅自抓取网友照片通过AI生成反派角色并做丑化、贬损处理,这些绝非什么创作自由,而是赤裸裸的人格权侵权。《征求意见稿》第八条将“不得以丑化、污损等形式侵害他人人格权”明确写入,正是对这种歪风邪气的一记重锤。建议进一步细化“丑化、污损”的认定标准和处罚梯度,让法律利剑真正落到实处,不留模糊地带。
“可识别”不等于“一模一样”,《征求意见稿》亟须配套细则。实践中,“可识别性”门槛给执法带来了现实挑战。当AI生成的虚拟角色撞脸明星但并非直接复制照片时,平台如何在毫秒级审核中判断是否构成侵权?北京互联网法院综合审判三庭庭长颜君的解读指出,判断是否构成侵权的核心在于“一般社会公众或相关领域公众根据其五官、轮廓等外部形象或音色、语调、发音风格等声音特征识别出特定自然人”。这个标准在法理上没有问题,但在执行层面需要更具体的操作指引。建议配套出台侵权认定操作细则,明确“高度相似”的量化参照标准,比如建立名人生物特征数据库、引入第三方鉴定机制,让平台和执法者有据可依、有章可循。
源头治理才是根本,授权链条不能有缺口。《征求意见稿》要求使用自然人敏感个人信息用于建模、形象生成等活动,必须取得自然人单独同意。这是关键一步。但问题在于,谁来审核这份同意,如何防止“一次性授权”被无限复用。更值得警惕的是,AI短剧行业已经出现了明码标价收购人脸授权的现象,报价从几十元到几千元不等,授权期长达15年。这些“人脸生意”背后,授权合同的合法性、签约者的知情权保障、未成年人人脸被监护人“代签”的风险都亟待规范。建议《征求意见稿》进一步明确,授权链条的每一个环节都要可追溯、可验证;平台必须建立人脸授权的合规审查机制,未经授权或授权不明的内容不得上线;对于未成年人人脸信息的授权使用,应当设置更为严格的审批程序。
数字虚拟人的边界,本质上就是一道文明的底线。技术可以模拟人类,但绝不能替代人类或践踏人类的人格尊严与法律权利。《征求意见稿》正在进行中,衷心期待更多建设性的声音参与进来,让这份管理办法更接地气、更具操作性,在数字浪潮中守住每一个普通人的“脸面”。












