视频生成

Hallo2

Hallo2是一款由复旦大学、百度公司和南京大学合作开发的音频驱动视频生成模型。它能够将单张图片与音频结合,并通过文本提示调节表情,生成高分辨率4K视频。Hallo2采用了补丁下降、高斯噪声等数据增强技术,提升了视频的视觉一致性和时间连贯性,同时通过语义文本标签提高了生成内容的可控性与多样性。该模型适用于电影、游戏、虚拟助手等多个领域,展现出强大的内容生成能力。

Open

Open-Sora是一个开源视频生成模型,基于DiT架构,通过三个阶段的训练(大规模图像预训练、大规模视频预训练和高质量视频数据微调),生成与文本描述相符的视频内容。该模型包括预训练的VAE、文本编码器和STDiT(Spatial-Temporal Diffusion Transformer)核心组件,利用空间-时间注意力机制和交叉注意力模块实现视频生成。项目旨在提供全面的视频生成模型训练过程,供

DreaMoving

DreaMoving是一个基于扩散模型的人类视频生成框架,由阿里巴巴集团研究团队开发。该框架通过视频控制网络(Video ControlNet)和内容引导器(Content Guider)实现对人物动作和外观的精确控制,允许用户通过文本或图像提示生成个性化视频内容。其主要功能包括定制化视频生成、高度可控性、身份保持、多样化的输入方式以及易于使用的架构设计。DreaMoving广泛应用于影视制作、游

Motionit AI

​MotionIt.ai是一款利用人工智能生成令人惊叹的幻灯片和视频的先进平台,用于各种用途

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

Wan

Wan是阿里推出的AI创意平台,支持AI绘画与视频生成,能根据文字或图片生成高质量艺术图像和动态视频。提供多种风格选择与创意探索功能,用户可保存作品并分享。适用于艺术设计、内容创作、教育学习及商业营销等多个领域,助力提升创作效率与创意表达。

Muku AI

AI驱动的爆款视频传播创作工具,可将您的想法转化为可在 TikTok、Instagram 和 YouTube 等社交媒体平台上传播的视频。

ContentV

ContentV是字节跳动开源的80亿参数文生视频模型框架,通过替换Stable Diffusion 3.5 Large的2D-VAE为3D-VAE并引入3D位置编码,提升视频生成能力。采用多阶段训练策略和流匹配算法,实现高效训练。支持文本到视频生成、自定义视频参数、风格迁移与融合、视频续写与修改等功能,适用于视频内容创作、游戏开发、VR/AR和特效制作等场景。

Hula

Hula 是一款 AI 视频生成工具,支持将静态照片或视频转换为动态内容,提供多种风格转换功能,如复古、动漫、童话等。用户可生成未来宝宝形象、制作聊天贴纸,并体验“时间旅行”功能,展现不同时代的自我形象。适用于社交媒体内容创作、创意视频制作和个人形象设计等多种场景。