
腾讯混元发布并开源图生视频模型,同时上线音频与动作驱动等能力

腾讯混元发布并开源图生视频模型,企业和开发者可在腾讯云申请 API 接口使用。用户可通过混元 AI 视频官网体验该模型,支持生成背景音效及 2K 高质量视频。用户只需上传一张图片并描述运动要求,混元即可生成 5 秒短视频。开源内容包括权重、推理代码和 LoRA 训练代码,适用于多种角色和场景。该模型具备灵活扩展性,支持多维度控制生成视频。
腾讯混元图生视频模型目前已经上线,企业和开发者可在腾讯云申请使用 API 接口;用户通过混元 AI 视频官网即可体验。混元视频生成开源模型目前在 Github、HuggingFace 等主流开发者社区均可下载体验。
腾讯混元发布图生视频模型并对外开源,同时上线对口型与动作驱动等玩法,并支持生成背景音效及 2K 高质量视频。
基于图生视频的能力,用户只需上传一张图片,并简短描述希望画面如何运动、镜头如何调度等,混元即可按要求让图片动起来,变成 5 秒的短视频,还能自动配上背景音效。此外,上传一张人物图片,并输入希望 “对口型” 的文字或音频,图片中的人物即可 “说话” 或 “唱歌”;使用 “动作驱动” 能力,还能一键生成同款跳舞视频。
目前用户通过混元 AI 视频官网即可体验,企业和开发者可在腾讯云申请使用 API 接口使用。
此次开源的图生视频模型,是混元文生视频模型开源工作的延续,模型总参数量保持 130 亿,模型适用于多种类型的角色和场景,包括写实视频制作、动漫角色甚至 CGI 角色制作的生成。
开源内容包含权重、推理代码和 LoRA 训练代码,支持开发者基于混元训练专属 LoRA 等衍生模型。目前在 Github、HuggingFace 等主流开发者社区均可下载体验。
混元开源技术报告披露,混元视频生成模型具备灵活的扩展性,图生视频和文生视频在相同的数据集上开展预训练工作。在保持超写实画质、流畅演绎大幅度动作、原生镜头切换等特性的基础上,让模型能够捕捉到丰富的视觉和语义信息,并结合图像、文本、音频和姿态等多种输入条件,实现对生成视频的多维度控制。
混元视频生成模型开源以来,一直保持较高的热度,去年 12 月登顶 huggingface 全站趋榜第一,目前 Github 平台上 Star 数超过 8.9K。多位开发者自发制作基于社区 Hunyuanvideo 的插件与衍生模型,积累超过 900 个衍生版本。更早开源的混元 DiT 文生图模型,在国内外衍生模型数量多达 1600 多个。
目前,混元开源系列模型已经完整覆盖文本、图像、视频和 3D 生成等多个模态,在 Github 累计获得超 2.3 万开发者关注和 star。
风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

