视频生成

Auto Think

Auto Think是快手Kwaipilot团队开源的KwaiCoder-AutoThink-preview自动思考大模型,针对深度思考大模型的“过度思考”问题,提出了一种全新的训练范式。模型融合“思考”和“非思考”能力,能根据问题难度自动切换模式,提升复杂任务表现。在代码和数学类任务中,性能提升可达20分。其技术原理包括最小提示干预和多阶段强化学习,适用于视频生成、文案创作、智能客服等多个场景。

ViVa AI

Sora同架构视频生成模型,支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。

ShortMake AI

一款能够将想法转化为爆款视频的AI视频生成工具。不需要视频编辑技术,通过ShortMake AI可快速生成视频脚本、配音、图像和字幕,并将这些元素组合成视频。

商汤如影

商汤如影是一款由商汤科技开发的AI数字人视频生成平台,通过先进大模型技术创建高度逼真的数字人形象,应用于教育、金融、营销等领域。平台具备数字人创建、声音克隆、视频生成、自动化数据标注、图片生成、实时互动等功能,并支持多语言及多种服务形式,以满足个性化和专业化的服务需求。

Wan2.1

Wan2.1是阿里云推出的开源AI视频生成模型,支持文生视频与图生视频,具备复杂运动生成和物理模拟能力。采用因果3D VAE与视频Diffusion Transformer架构,性能卓越,尤其在Vbench评测中表现领先。提供专业版与极速版,适应不同场景需求,已开源并支持多种框架,便于开发与研究。

Luma Ray2

Luma Ray2 是 Luma AI 推出的视频生成模型,基于多模态架构,支持文本和图像输入,生成高质量、连贯的视频内容。相较前代,视频时长从 5 秒提升至 1 分钟,支持电影级运镜和逼真特效,适用于影视制作、广告、游戏动画及教育等多个领域。

Animate

Animate-X 是一个基于 Latent Diffusion Model 的通用动画框架,可将静态图像转化为高质量的动态视频,特别适合拟人化角色动画的生成。它通过引入隐式和显式姿势指示器,增强了对运动模式的捕捉能力,并支持多种角色类型,无需严格对齐。该工具在游戏开发、影视制作、虚拟现实及社交媒体内容创作等方面具有广泛应用价值。 ---

TIP

TIP-I2V是一个包含大量真实文本和图像提示的数据集,专为图像到视频生成领域设计。它涵盖了超过170万个独特的提示,并结合多种顶级图像到视频生成模型生成的视频内容。该数据集支持用户偏好分析、模型性能评估以及解决错误信息传播等问题,有助于推动图像到视频生成技术的安全发展。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

Higgsfield

Higgsfield是一款基于AI的视频生成平台,能够将文本提示转化为高质量视频内容,支持多种风格如现实主义、赛博朋克等。具备电影级相机控制、深度定制、资源管理等功能,适用于社交媒体、广告及电影制作领域,提升创作效率与质量。