视频生成

豆包AI视频模型

豆包AI视频模型包括PixelDance和Seaweed两款工具,分别基于DiT和Transformer架构。PixelDance擅长处理复杂指令和多主体互动,适合制作情节丰富的短片;Seaweed支持多分辨率输出,生成高质量、高逼真的视频,适用于商业领域。两者均提供多样化的风格选择和输出格式,满足不同场景需求。 ---

TANGO

TANGO是一个开源框架,利用分层音频运动嵌入和扩散插值网络,生成与目标语音同步的全身手势视频。其主要功能包括高保真视频制作、跨模态对齐、过渡帧生成及外观一致性保持,适用于新闻播报、虚拟YouTuber、在线教育等多个领域。该工具通过先进的技术解决了动作与语音匹配问题,并有效提升了视频内容制作效率。

Vidu主体参照功能

Vidu的主体参照功能是一项由Vidu AI首次推出的参考一致性功能,旨在保持视频中单一主体(如真人、2D或3D角色)的一致性。该功能不仅支持对角色的面容、半身、全身特征进行精确控制,还涵盖多种角色类型和画风,包括写实风格和各种艺术风格。它能有效解决视频制作中的一致性问题,提升创作效率,并降低技术门槛,适用于艺术创作、商业广告、社交媒体内容、教育和培训、游戏开发以及电影和电视剧制作等多种应用场景。

艺映AI

一个强大且专业的免费AI视频生成式平台, 一句话或一张图就能免费生成AI视频, 擅长生成丝滑无闪烁动画。

海螺视频

MiniMax公司推出的一款基于AI高清视频生成模型abab-video-1技术的视频生成工具,海螺AI视频支持文生视频,最高支持原生1280*720的25fps分辨率,拥有电影感镜头移动效果。

LanDiff

LanDiff是一种结合自回归语言模型和扩散模型的文本到视频生成框架,采用粗到细的生成策略,有效提升语义理解与视觉质量。其核心功能包括高效语义压缩、高质量视频生成、语义一致性保障及灵活控制能力。支持长视频生成,降低计算成本,适用于视频制作、VR/AR、教育及社交媒体等多个领域。

FancyVideo

FancyVideo是一款由360公司与中山大学合作开发的AI文生视频模型,采用创新的跨帧文本引导模块(CTGM)。它能够根据文本描述生成连贯且动态丰富的视频内容,支持高分辨率视频输出,并保持时间上的连贯性。作为开源项目,FancyVideo提供了详尽的文档和代码库,便于研究者和开发者深入研究和应用。主要功能包括文本到视频生成、跨帧文本引导、时间信息注入及时间亲和度细化等。

清影

清影2.0是一款基于CogVideoX模型的AI视频生成工具,支持4K超高清视频生成,具备强大文本理解能力与多通道输出功能。集成CogSound模型提供音效匹配,支持任意比例输出,提升创作灵活性。适用于教育、营销、娱乐等多个领域,提供高效、高质量的视频生成服务。

Stable Virtual Camera

Stable Virtual Camera 是 Stability AI 推出的 AI 工具,能够将 2D 图像转换为具有真实深度和透视感的 3D 视频。用户可通过自定义相机轨迹生成多种宽高比的视频,支持最长 1000 帧的高质量输出。其核心技术包括生成式 AI、神经渲染和多视图一致性优化,确保视频在不同视角间过渡自然且保持 3D 一致性。适用于广告、内容创作及教育等多个领域。

Mochi 1

Mochi 1 是一款基于开源架构的 AI 视频生成工具,具有高保真度和强大的提示遵循能力。它采用 Genmo 自研的非对称扩散变压器(AsymmDiT)架构,结合实时视频生成技术和流式架构,能够高效生成高质量的视频内容。Mochi 1 支持多种应用场景,包括视频内容创作、教育、娱乐、广告和社交媒体等,适用于个人和企业用户。