AI视频创作技术展现出巨大潜力,仅凭人脸照片就能快速生成电影级视频,使普通用户能与明星同框互动。然而这项技术的广泛应用也带来了身份冒用、内容滥用等风险,特别是AI生成内容的版权认定存在困难。
为守住合规底线,国家网信办等四部门已实施人工智能生成合成内容标识办法,要求所有AI生成内容进行显著标识。近期网信部门开展专项整治,处置了大量违规账号和违法信息。随着生成式AI内容规模扩大,相关规范要求正在不断细化。
平台方面也加强了真人素材使用规范,CS2.0平台暂不支持用户输入真人图片作为生成参考,仅开放通过严格验证的个人数字分身功能。专家建议严格落实AI生成标识制度,规范真人肖像使用,避免侵权乱象。
当前AI技术发展迅速,能够合成微表情、行走步态等细节,技术门槛越来越低。面对深度伪造技术风险,现有法律法规在细节条款上尚未完全跟上技术发展步伐。需要从立法层面提高前瞻性,明确侵权责任和救济途径,构建适应AI时代的系统性应对方案。