视频生成

HourOne Ai

一款AI数字人视频生成器,可以在几分钟内通过文本生成专业视频,它提供定制的视频模板、不同口音和语言的AI数字人等功能。

豆包AI视频模型

豆包AI视频模型包括PixelDance和Seaweed两款工具,分别基于DiT和Transformer架构。PixelDance擅长处理复杂指令和多主体互动,适合制作情节丰富的短片;Seaweed支持多分辨率输出,生成高质量、高逼真的视频,适用于商业领域。两者均提供多样化的风格选择和输出格式,满足不同场景需求。 ---

MimicPhoto

MimicPhoto 是一款基于 AI 的图像处理工具,支持面部表情优化、动态视频生成、背景替换及智能补光等功能。用户可轻松调整笑容、眼神等细节,将静态照片转化为生动的动态视频,提升人像质量和视觉表现力,适用于摄影、电商、社交媒体及创意制作等多种场景。

LanDiff

LanDiff是一种结合自回归语言模型和扩散模型的文本到视频生成框架,采用粗到细的生成策略,有效提升语义理解与视觉质量。其核心功能包括高效语义压缩、高质量视频生成、语义一致性保障及灵活控制能力。支持长视频生成,降低计算成本,适用于视频制作、VR/AR、教育及社交媒体等多个领域。

Emote Portrait Alive

阿里巴巴发布的EMO,一种音频驱动的AI肖像视频生成框架。通过输入单一的参考图像和语音音频,Emote Portrait Alive可以生成动态的、表情丰富的肖像视频。

RenderNet

RenderNet是一个基于AI技术的生成式平台,支持图像和视频创作,提供角色一致性控制、姿势调整、面部锁定等功能,适用于影视、游戏、广告及教育等多个领域。其开放API支持开发者构建定制化应用,提升内容创作效率与质量。

StoryDiffusion

StoryDiffusion 是一种基于 AI 的图像和视频生成框架,通过 Consistent Self-Attention 和 Semantic Motion Predictor 技术,实现从文本到连贯图像和视频的转化,支持用户高效生成高质量视觉内容,广泛应用于动漫、教育、广告及影视等领域。

PixVerse V2

PixVerse V2是一款基于Diffusion+Transformer(DiT)架构并结合自研时空注意力机制的AI视频生成工具。它支持生成长度可达40秒的视频,单个片段最长可达8秒,且能保持视频片段间的一致性。用户可通过简单操作生成并编辑视频,适用于创意专业人士、社交媒体用户、企业营销人员及独立艺术家等多种人群。

Vivago AI

北京智象未来科技有限公司面向全球市场推出的一款综合性在线 AI 创作平台,提供视频生成、图片生成、图片agent编辑,数字人生成,3D模型等功能。

MotionCanvas

MotionCanvas是一种图像到视频生成工具,能将静态图像转化为动态视频。它提供相机与物体运动的联合控制,支持复杂轨迹设计和局部运动调整,具备3D感知能力,可生成高质量长视频。适用于电影制作、动画创作、VR/AR、游戏开发及教育等多个领域。