AI视频生成

OmniCam

OmniCam 是一种基于多模态输入的高级视频生成框架,结合大型语言模型与视频扩散模型,实现高质量、时空一致的视频内容生成。支持文本、视频或图像作为输入,精确控制摄像机运动轨迹,具备帧级操作、复合运动、速度调节等功能。采用三阶段训练策略提升生成效果,并引入 OmniTr 数据集增强模型性能。适用于影视、广告、教育及安防等多个领域,提高视频创作效率与质量。

ACTalker

ACTalker 是一种基于视频扩散模型的端到端工具,可生成高质量、自然的说话人头部视频。支持多信号控制(如音频、表情),采用并行 Mamba 结构和门控机制,实现跨时间和空间的精准面部动作控制。实验表明其在音频同步性和视频质量上表现优异,适用于虚拟主播、远程会议、在线教育等多种场景。

Lumen5

Lumen5是一个在线视频创建者,允许团队中的任何人快速轻松地创建引人入胜的视频内容。它以人工智能技术为特色,重新利用营销内容,可定制的模板旨在帮助保持品牌,预算和时间,以...

Vidnoz

Vidnoz是一款基于AI的在线视频生成工具,拥有超过1200个逼真的虚拟形象、470多种语言支持及900多个视频模板,支持从文本到视频的全流程制作。其主要功能包括AI虚拟形象生成、文字转语音、视频模板应用、智能编辑、语音克隆以及静态图片动态化处理,广泛应用于社交媒体营销、在线教育、企业培训、产品宣传等领域。

Viggle

Viggle是一个强大的AI视频生成工具,它通过易于使用的命令为用户提供了丰富的视频创作可能性。无论是将静态角色转化为动态视频,还是完全控制角色动作,Viggle都能满足用户的创意...

Symphony Creative Studio

Symphony Creative Studio是一款由TikTok开发的AI视频创作工具,专注于简化广告主和内容创作者的视频制作流程。它具备视频生成、转换、扩展以及虚拟人物创作等功能,支持多语言翻译与配音,并可基于品牌IP定制虚拟形象。通过整合多种智能技术,该工具显著提升了内容创作效率与质量。

Ingredients

Ingredients是一款基于多身份图像与视频扩散Transformer的视频生成框架,支持多身份特征的高效整合与动态分配。其核心模块包括面部提取器、多尺度投影器和ID路由器,能够保持身份一致性并生成高质量视频内容。无需额外训练即可实现个性化视频制作,适用于娱乐、广告、教育等多个领域。

混元图生视频

混元图生视频是腾讯混元推出的开源图生视频模型,支持用户上传图片并输入描述生成5秒短视频,具备对口型、动作驱动和背景音效自动生成等功能。模型适用于多种风格与场景,参数量达130亿,已在腾讯云上线并开源,支持本地部署与定制开发,适用于创意视频、特效制作及动画开发等多个领域。

Still

Still-Moving是一款由DeepMind开发的AI视频生成框架,主要功能包括通过轻量级的空间适配器将用户定制的文本到图像(T2I)模型特征适配至文本到视频(T2V)模型,实现无需特定视频数据即可生成定制视频。其核心优势在于结合T2I模型的个性化和风格化特点与T2V模型的运动特性,从而生成高质量且符合用户需求的视频内容。

优雅YOYA

优雅(YOYA)是中科闻歌推出的多模态文生视频平台,基于大语言模型和多模态技术,支持从脚本生成到视频剪辑的全流程自动化。用户仅需输入主题,即可快速生成高质量视频,并支持语音克隆、口型翻译、数字人等功能。平台还具备多模态素材智能剪辑能力,提升创作效率与可控性,适用于媒体、影视、企业宣传及教育等领域。