视频

MinT

MinT是一款基于时间基位置编码技术的多事件视频生成框架,允许用户通过文本提示生成包含多个事件的连贯视频,并支持对事件顺序及持续时间的精确控制。其核心技术ReRoPE使得模型能够有效关联文本提示与视频帧,同时结合预训练的视频扩散变换器(DiT)和大型语言模型(LLM)的提示增强功能,进一步提升了视频生成的质量与丰富度。MinT适用于娱乐、广告、教育等多个领域,为视频创作带来了创新性的解决方案。

Gemini 2.0

Gemini 2.0 是谷歌推出的原生多模态AI模型,具备快速处理文本、音频和图像的能力,支持多语言输出和实时音视频流输入。通过Agent技术和工具调用,Gemini 2.0 能够自主理解任务并提供解决方案,已在编程、数据分析、游戏等领域展示应用潜力。目前提供免费试用,计划逐步开放更多功能。

Adobe Premiere Pro

基于文本的AI视频编辑,支持语音转录功能, 自动生成文字稿,简化视频剪辑流程,像编辑文本文档一样编辑视频。

Haiper AI

一家专注于视觉内容创作的生成式AI解决方案的人工知智能公司, Haiper AI的使命就是开发将文本和图片转换为动态视频或3D的模型。

万兴天幕多媒体大模型

一个涵盖了视觉、音频、语言等多模态AI生成和优化能力的多媒体大模型,万兴天幕多媒体大模型核心功能包括一键成片、AI美术设计、文生音乐、音频增强、音效分析、多语言对话等。

VideoCrafter2

VideoCrafter2 是一款由腾讯AI实验室开发的视频生成模型,通过将视频生成过程分解为运动和外观两个部分,能够在缺乏高质量视频数据的情况下,利用低质量视频保持运动的一致性,同时使用高质量图像提升视觉质量。该工具支持文本到视频的转换,生成高质量、具有美学效果的视频,能够理解和组合复杂的概念,并模拟不同的艺术风格。

Pictory.ai

Pictory.ai,通过使用 AI 的强大功能将文本内容转换为高度可分享的视频,从而产生更多潜在客户并促进销售:快速、可扩展、经济实惠。

LongLLaVA

LongLLaVA是由香港中文大学(深圳)研究团队开发的多模态大型语言模型,结合Mamba和Transformer模块,利用2D池化技术压缩图像token,大幅提升处理大规模图像数据的效率。该模型在视频理解、高分辨率图像分析及多模态代理任务中表现优异,特别擅长检索、计数和排序任务。其技术亮点包括渐进式训练策略和混合架构优化,支持多种多模态输入处理,广泛应用于视频分析、医学影像诊断、环境监测等领域。

Sora.FM

一个使用nextjs创建的用于生成 Sora AI视频的开源Web模板。

AssemblyAI

一个提供将音频文件、视频文件和实时语音转录为文字的平台,提供了一个简单的API,允许用户访问用于转录和语音理解的即可用的AI模型。