视频生成

VideoJAM

VideoJAM是Meta开发的视频生成框架,旨在提升视频运动连贯性。通过联合学习外观与运动信息,在训练阶段同时预测像素和运动特征,并在推理阶段利用动态引导机制优化生成结果。该技术具备高度通用性,可适配多种视频生成模型,无需调整训练数据或模型结构,已在多项基准测试中表现优异,适用于影视、游戏、教育等多个领域。

T2V

T2V-Turbo 是一种高效的文本到视频生成模型,能够快速生成高质量视频,同时确保文本与视频的高度一致性。它通过一致性蒸馏技术和混合奖励机制优化生成过程,适用于电影制作、新闻报道、教育及营销等多个领域,支持从创意草图到成品视频的全流程加速。

TIP

TIP-I2V是一个包含大量真实文本和图像提示的数据集,专为图像到视频生成领域设计。它涵盖了超过170万个独特的提示,并结合多种顶级图像到视频生成模型生成的视频内容。该数据集支持用户偏好分析、模型性能评估以及解决错误信息传播等问题,有助于推动图像到视频生成技术的安全发展。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

Higgsfield

Higgsfield是一款基于AI的视频生成平台,能够将文本提示转化为高质量视频内容,支持多种风格如现实主义、赛博朋克等。具备电影级相机控制、深度定制、资源管理等功能,适用于社交媒体、广告及电影制作领域,提升创作效率与质量。

Luma Ray2

Luma Ray2 是 Luma AI 推出的视频生成模型,基于多模态架构,支持文本和图像输入,生成高质量、连贯的视频内容。相较前代,视频时长从 5 秒提升至 1 分钟,支持电影级运镜和逼真特效,适用于影视制作、广告、游戏动画及教育等多个领域。

Animate

Animate-X 是一个基于 Latent Diffusion Model 的通用动画框架,可将静态图像转化为高质量的动态视频,特别适合拟人化角色动画的生成。它通过引入隐式和显式姿势指示器,增强了对运动模式的捕捉能力,并支持多种角色类型,无需严格对齐。该工具在游戏开发、影视制作、虚拟现实及社交媒体内容创作等方面具有广泛应用价值。 ---

Wan2.1

Wan2.1是阿里云推出的开源AI视频生成模型,支持文生视频与图生视频,具备复杂运动生成和物理模拟能力。采用因果3D VAE与视频Diffusion Transformer架构,性能卓越,尤其在Vbench评测中表现领先。提供专业版与极速版,适应不同场景需求,已开源并支持多种框架,便于开发与研究。

ViVa AI

Sora同架构视频生成模型,支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。

ShortMake AI

一款能够将想法转化为爆款视频的AI视频生成工具。不需要视频编辑技术,通过ShortMake AI可快速生成视频脚本、配音、图像和字幕,并将这些元素组合成视频。