视频生成

AtomoVideo

AtomoVideo是一款高保真图像到视频生成框架,能够从静态图像生成高质量视频内容。它通过多粒度图像注入和高质量数据集及训练策略,保证生成视频与原始图像的高度一致性和良好的时间连贯性。此外,AtomoVideo还支持长视频生成、文本到视频生成以及个性化和可控生成等功能。

Wan2.1

Wan2.1是阿里云推出的开源AI视频生成模型,支持文生视频与图生视频,具备复杂运动生成和物理模拟能力。采用因果3D VAE与视频Diffusion Transformer架构,性能卓越,尤其在Vbench评测中表现领先。提供专业版与极速版,适应不同场景需求,已开源并支持多种框架,便于开发与研究。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

Wan

Wan是阿里推出的AI创意平台,支持AI绘画与视频生成,能根据文字或图片生成高质量艺术图像和动态视频。提供多种风格选择与创意探索功能,用户可保存作品并分享。适用于艺术设计、内容创作、教育学习及商业营销等多个领域,助力提升创作效率与创意表达。

Muku AI

AI驱动的爆款视频传播创作工具,可将您的想法转化为可在 TikTok、Instagram 和 YouTube 等社交媒体平台上传播的视频。

Digen AI

一种利用AI技术创建的克隆数字人,Digen AI人物形象模拟、人物声音克隆、自然语言处理、知识图谱解析等众多世界领先的人工智能技术,使得Digen AI可以随时随地与真人进行准确交互性对话。

ContentV

ContentV是字节跳动开源的80亿参数文生视频模型框架,通过替换Stable Diffusion 3.5 Large的2D-VAE为3D-VAE并引入3D位置编码,提升视频生成能力。采用多阶段训练策略和流匹配算法,实现高效训练。支持文本到视频生成、自定义视频参数、风格迁移与融合、视频续写与修改等功能,适用于视频内容创作、游戏开发、VR/AR和特效制作等场景。

DreaMoving

DreaMoving是一个基于扩散模型的人类视频生成框架,由阿里巴巴集团研究团队开发。该框架通过视频控制网络(Video ControlNet)和内容引导器(Content Guider)实现对人物动作和外观的精确控制,允许用户通过文本或图像提示生成个性化视频内容。其主要功能包括定制化视频生成、高度可控性、身份保持、多样化的输入方式以及易于使用的架构设计。DreaMoving广泛应用于影视制作、游

Pika 2.0

Pika 2.0是一款由Pika Labs开发的AI视频生成工具,具备强大的文本对齐、动作渲染及场景元素整合功能。它能将详细提示转化为连贯且富有想象力的视频剪辑,同时提供自然的动作效果和可信的奇幻物理表现。此外,Pika 2.0支持用户上传和定制化场景元素,通过先进的图像识别技术实现无缝集成,为创作者提供更精细的控制权。这款工具适用于媒体娱乐、电商、教育、工业、医疗和个人创作等多个领域。