AI视频生成

闪剪_AI剪辑_数字人

闪剪是一款AI智能视频剪辑工具,自2021年起专注于数字人领域,并在2022年推出了数字人短视频创作平台。该平台提供SAAS级企业应用的数字产品,并打造了APP和网页两种产品形态。

豆包AI视频模型

豆包AI视频模型包括PixelDance和Seaweed两款工具,分别基于DiT和Transformer架构。PixelDance擅长处理复杂指令和多主体互动,适合制作情节丰富的短片;Seaweed支持多分辨率输出,生成高质量、高逼真的视频,适用于商业领域。两者均提供多样化的风格选择和输出格式,满足不同场景需求。 ---

Vidu主体参照功能

Vidu的主体参照功能是一项由Vidu AI首次推出的参考一致性功能,旨在保持视频中单一主体(如真人、2D或3D角色)的一致性。该功能不仅支持对角色的面容、半身、全身特征进行精确控制,还涵盖多种角色类型和画风,包括写实风格和各种艺术风格。它能有效解决视频制作中的一致性问题,提升创作效率,并降低技术门槛,适用于艺术创作、商业广告、社交媒体内容、教育和培训、游戏开发以及电影和电视剧制作等多种应用场景。

LanDiff

LanDiff是一种结合自回归语言模型和扩散模型的文本到视频生成框架,采用粗到细的生成策略,有效提升语义理解与视觉质量。其核心功能包括高效语义压缩、高质量视频生成、语义一致性保障及灵活控制能力。支持长视频生成,降低计算成本,适用于视频制作、VR/AR、教育及社交媒体等多个领域。

FancyVideo

FancyVideo是一款由360公司与中山大学合作开发的AI文生视频模型,采用创新的跨帧文本引导模块(CTGM)。它能够根据文本描述生成连贯且动态丰富的视频内容,支持高分辨率视频输出,并保持时间上的连贯性。作为开源项目,FancyVideo提供了详尽的文档和代码库,便于研究者和开发者深入研究和应用。主要功能包括文本到视频生成、跨帧文本引导、时间信息注入及时间亲和度细化等。

清影

清影2.0是一款基于CogVideoX模型的AI视频生成工具,支持4K超高清视频生成,具备强大文本理解能力与多通道输出功能。集成CogSound模型提供音效匹配,支持任意比例输出,提升创作灵活性。适用于教育、营销、娱乐等多个领域,提供高效、高质量的视频生成服务。

Stable Virtual Camera

Stable Virtual Camera 是 Stability AI 推出的 AI 工具,能够将 2D 图像转换为具有真实深度和透视感的 3D 视频。用户可通过自定义相机轨迹生成多种宽高比的视频,支持最长 1000 帧的高质量输出。其核心技术包括生成式 AI、神经渲染和多视图一致性优化,确保视频在不同视角间过渡自然且保持 3D 一致性。适用于广告、内容创作及教育等多个领域。

Mochi 1

Mochi 1 是一款基于开源架构的 AI 视频生成工具,具有高保真度和强大的提示遵循能力。它采用 Genmo 自研的非对称扩散变压器(AsymmDiT)架构,结合实时视频生成技术和流式架构,能够高效生成高质量的视频内容。Mochi 1 支持多种应用场景,包括视频内容创作、教育、娱乐、广告和社交媒体等,适用于个人和企业用户。

GEN3C

GEN3C是由NVIDIA、多伦多大学和向量研究所联合开发的生成式视频模型,基于点云构建3D缓存,结合精确的相机控制和时空一致性技术,实现高质量视频生成。支持从单视角到多视角的视频创作,具备3D编辑能力,适用于动态场景和长视频生成。在新型视图合成、驾驶模拟、影视制作等领域有广泛应用前景。

Videomaker

Designs.ai Videomaker是一个创新的在线工具,它通过AI技术简化了视频制作流程,使得用户能够快速、轻松地创作出专业级别的视频内容。