通义实验室近日宣布,全球首个专为影视级多场景配音设计的多模态大模型Fun-CineForge正式开源,同步公开其配套的高质量数据集构建方案CineDub。该模型聚焦于突破AI在专业影视配音领域的技术瓶颈,针对性解决口型同步偏差、情感表达错位、音色统一性不足及时间轴对齐困难四大行业痛点,为影视后期制作提供智能化解决方案。
据技术文档披露,Fun-CineForge通过多模态融合架构实现声画深度耦合,其核心算法可精准捕捉视频中人物的唇部运动轨迹,结合语义理解与情感分析模块,动态调整配音的语调、节奏和音色特征。配套的CineDub数据集构建方法采用分层标注体系,涵盖不同语种、年龄层和表演风格的语音样本,为模型训练提供高维度、强泛化的数据支撑。
开发团队透露,当前开源版本已支持30秒以内视频片段的实时推理,在GitHub、Hugging Face及ModelScope三大开源平台同步上线。开发者可通过调用预训练模型或基于CineDub方法构建自定义数据集,快速实现从素材导入到成品导出的全流程配音生产。实验数据显示,该模型在口型匹配准确率、情感相似度等关键指标上较传统方法提升显著。
此次开源计划包含完整模型权重、训练代码及数据集构建工具包,同时提供多语言适配接口和跨平台部署指南。影视行业从业者与AI研究者可基于开源框架进行二次开发,探索在动画制作、短视频创作、游戏配音等场景的延伸应用,推动智能化配音技术的规模化落地。




