视频生成

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

万兴天幕多媒体大模型

一个涵盖了视觉、音频、语言等多模态AI生成和优化能力的多媒体大模型,万兴天幕多媒体大模型核心功能包括一键成片、AI美术设计、文生音乐、音频增强、音效分析、多语言对话等。

BuzzClip

BuzzClip 是一款基于人工智能的视频生成工具,专注于帮助用户在短时间内高效制作适合 TikTok 等平台的短视频内容。平台提供超过 100 个 AI 虚拟形象、多种预设模板及多语言支持,适用于品牌推广、产品展示和社交媒体运营等多种场景。用户可直接发布视频并进行品牌定制,具备完整的商业使用权和基础数据分析功能,提升内容创作效率与传播效果。

D-ID

D-ID是一个利用生成式AI技术的平台,专注于为专业人士和内容创作者提供视频内容的创新解决方案。它允许用户从文本生成逼真的数字人物,从而简化大规模视频制作的流程。

Pyramid

Pyramid-Flow是一款基于文本生成高清视频的AI工具,利用创新的金字塔流匹配算法,支持从低分辨率到高分辨率的逐步生成过程,可生成长达10秒、分辨率达1280×768的视频内容。该模型具备端到端优化能力,支持连续帧生成,确保视频内容的连贯性和高质量。

即梦AI

剪映旗下的一款AI视频生成工具,能够根据用户提供的文本内容生成由AI制作的创意视频!

SaRA

SaRA是一种新型预训练扩散模型微调方法,通过重新激活预训练阶段未被充分使用的参数,有效提升模型的适应性和泛化能力。该方法支持核范数低秩稀疏训练,能够防止过拟合并优化模型性能,同时大幅降低计算资源需求。SaRA适用于多种应用场景,包括图像风格迁移、视频生成及下游数据集微调等,仅需少量代码调整即可实现高效微调。

DrivingDojo

DrivingDojo是一个由中国科学院自动化研究所与美团无人车团队合作研发的数据集,包含18,000个视频片段,涵盖全面的驾驶操作、多智能体交互及开放世界驾驶知识。它定义了动作指令跟随(AIF)基准,用于评估世界模型的预测能力,并支持自动驾驶算法开发、世界模型训练、多智能体交互模拟及罕见事件处理等多个应用场景。

Noisee AI

Noisee AI 是一款非常有趣的工具,它通过人工智能技术将音乐与视觉艺术相结合,为用户提供了一种全新的音乐体验和创作方式。

Vyond

借助亚马逊云科技的算力,实现高效AI视频生成。Vyond通过输入提示词生成视频的方式,帮助企业快速制作高质量视频。