随着生成式人工智能技术的飞速发展,基于AIGC的虚拟数字人短视频制作已从专业领域走向大众化。然而,技术的便捷也伴随着滥用和误导的风险。为维护清朗网络空间、保护公众知情权,中国及全球多国已出台对“深度合成”内容的监管法规。对于虚拟数字人短视频创作者而言,理解并遵守深度合成标识义务与平台审核规则,已成为内容发布与传播的前置条件与基本底线。本指南旨在系统性梳理相关合规要点。
一、深度合成标识:不可逾越的法律红线
虚拟数字人短视频的核心制作技术,如AI生成形象、语音克隆、面部重现、动作驱动等,均属于国家网信办等三部门联合发布的《互联网信息服务深度合成管理规定》所定义的“深度合成技术”。该规定及《网络音视频信息服务管理规定》等法规,明确要求对使用此类技术生成的音视频信息,进行显著标识。
标识的核心要求如下:
-
标识义务主体:包括深度合成服务的提供者(如提供数字人生成工具的APP/平台)和使用者(即内容创作者)。双方均负有标识责任。
-
标识位置与方式:标识应当清晰、显著,达到“足以引起公众注意”的程度。通常应在视频的左上角或右上角,以不影响观看主要内容为前提,添加“AI生成”、“虚拟形象”或“技术合成”等水印或角标。对于通过语音合成技术生成的内容,应在音频起始或结尾处进行语音提示。
-
标识的不可删除性:标识必须贯穿视频始终,且不得被技术手段轻易抹除、篡改或遮挡。服务提供方有义务确保其生成的内容自带不可轻易分离的标识。
-
禁止性规定:严禁利用深度合成技术制作、复制、发布、传播虚假新闻信息,以及从事法律法规禁止的其他活动。任何规避、破坏标识的行为均属违规。
二、平台审核规则:内容发布的“守门人”
各大短视频平台作为内容分发的主要渠道,依据国家法规制定了更为具体、可执行的审核规则。创作者必须熟悉目标平台的细则。
通用审核重点(各平台共性):
-
未标识或标识不规范的深度合成内容:一经发现,将面临内容限流、下架、账号扣分乃至封禁等处罚。
-
误导性内容:利用虚拟数字人假冒公众人物、权威机构(如政府、媒体)发布信息,或生成足以造成公众混淆的仿冒内容,属于严重违规。
-
违法与不良信息:即使使用虚拟形象,内容本身涉及暴力、色情、诈骗、侵权(侵犯肖像权、名誉权、知识产权)等,将受到最严厉处理。
主流平台规则要点解析:
-
抖音/快手:已明确将“未对AI生成内容进行显著标识”列入社区规范。平台利用AI技术辅助识别未标识的疑似合成内容,并进行人工复核。对于新闻、财经、医疗等严肃领域,使用虚拟人出镜发布内容面临更严格的审核与资质核查。
-
B站:对“虚拟UP主”等数字人内容有较高包容度,但同样强调合规。在科技、知识区使用虚拟形象制作内容,需在简介或视频开头明确说明。若涉及评论社会事件或他人,即使是虚拟形象,其言论也需承担同等法律责任。
-
微信视频号:对内容的真实性与社会责任要求极高。利用虚拟数字人进行营销、带货,需明确其“虚拟身份”,不得让用户误以为是真人代言。在涉及健康养生、投资理财等敏感领域,使用虚拟人形象的风险极大。
三、创作者合规操作全流程建议
为确保内容安全发布,建议遵循以下操作流程:
制作前:合规先行
-
选择合规工具:优先使用已内置合规标识功能的官方或正规数字人制作平台/软件。
-
审视内容主题:避免利用虚拟数字人制作涉及重大公共利益的虚假信息、敏感话题或侵犯他人合法权益的内容。
制作中:规范标识
-
主动添加标识:即使工具已添加,也建议在剪辑环节复查标识是否清晰、全程存在。对于自行研发技术生成的内容,必须手动添加。
-
文案辅助说明:在视频标题、描述或开场白中,以文字或口播形式再次声明“本视频由AI技术驱动生成”、“出镜人物为虚拟数字人”,进行双重提示。
发布前:自查自审
-
审核核心要素:检查标识是否合规、内容是否可能造成误解或混淆、是否存在侵权风险。
-
了解平台规则:查看目标平台最新的社区公约或创作者规范,特别是关于AI内容、虚拟人的专项条款。
发布后:响应与改进
-
关注用户反馈,如收到关于内容真实性或标识问题的询问,应及时、诚恳地说明情况。
-
若因合规问题被平台处理,应认真阅读违规通知,理解原因并及时整改。
虚拟数字人短视频的创作自由,建立在技术向善与法律合规的双重基础之上。深度合成标识不是对创作的束缚,而是对公众知情权的尊重,是行业健康可持续发展的保障。创作者主动履行标识义务、严格遵守平台规则,不仅能有效规避法律与运营风险,更能赢得用户的长期信任。唯有在清晰的规则边界内起舞,AIGC赋能下的数字内容创新才能行稳致远,释放其真正的价值与魅力。
用户1
2025/10/24 10:59:20语音转写技术:从实验室到日常生活的跨越之路