视频生成

Stable Virtual Camera

Stable Virtual Camera 是 Stability AI 推出的 AI 工具,能够将 2D 图像转换为具有真实深度和透视感的 3D 视频。用户可通过自定义相机轨迹生成多种宽高比的视频,支持最长 1000 帧的高质量输出。其核心技术包括生成式 AI、神经渲染和多视图一致性优化,确保视频在不同视角间过渡自然且保持 3D 一致性。适用于广告、内容创作及教育等多个领域。

LTX Video

LTX Video是一款基于开源架构的AI视频生成工具,利用先进的扩散Transformer技术和2亿参数的DiT架构,能够在短时间内生成高质量视频。其功能涵盖实时生成、运动一致性保障、开源可扩展性及广泛的硬件兼容性,适用于游戏、广告、影视等多种行业,为用户提供高效的视频生成解决方案。

PixVerse V2

PixVerse V2是一款基于Diffusion+Transformer(DiT)架构并结合自研时空注意力机制的AI视频生成工具。它支持生成长度可达40秒的视频,单个片段最长可达8秒,且能保持视频片段间的一致性。用户可通过简单操作生成并编辑视频,适用于创意专业人士、社交媒体用户、企业营销人员及独立艺术家等多种人群。

Vivago AI

北京智象未来科技有限公司面向全球市场推出的一款综合性在线 AI 创作平台,提供视频生成、图片生成、图片agent编辑,数字人生成,3D模型等功能。

StoryDiffusion

StoryDiffusion 是一种基于 AI 的图像和视频生成框架,通过 Consistent Self-Attention 和 Semantic Motion Predictor 技术,实现从文本到连贯图像和视频的转化,支持用户高效生成高质量视觉内容,广泛应用于动漫、教育、广告及影视等领域。

TANGO

TANGO是一个开源框架,利用分层音频运动嵌入和扩散插值网络,生成与目标语音同步的全身手势视频。其主要功能包括高保真视频制作、跨模态对齐、过渡帧生成及外观一致性保持,适用于新闻播报、虚拟YouTuber、在线教育等多个领域。该工具通过先进的技术解决了动作与语音匹配问题,并有效提升了视频内容制作效率。

RenderNet

RenderNet是一个基于AI技术的生成式平台,支持图像和视频创作,提供角色一致性控制、姿势调整、面部锁定等功能,适用于影视、游戏、广告及教育等多个领域。其开放API支持开发者构建定制化应用,提升内容创作效率与质量。

LanDiff

LanDiff是一种结合自回归语言模型和扩散模型的文本到视频生成框架,采用粗到细的生成策略,有效提升语义理解与视觉质量。其核心功能包括高效语义压缩、高质量视频生成、语义一致性保障及灵活控制能力。支持长视频生成,降低计算成本,适用于视频制作、VR/AR、教育及社交媒体等多个领域。

Emote Portrait Alive

阿里巴巴发布的EMO,一种音频驱动的AI肖像视频生成框架。通过输入单一的参考图像和语音音频,Emote Portrait Alive可以生成动态的、表情丰富的肖像视频。

MimicPhoto

MimicPhoto 是一款基于 AI 的图像处理工具,支持面部表情优化、动态视频生成、背景替换及智能补光等功能。用户可轻松调整笑容、眼神等细节,将静态照片转化为生动的动态视频,提升人像质量和视觉表现力,适用于摄影、电商、社交媒体及创意制作等多种场景。