音频

Loopy

Loopy是一款由字节跳动开发的音频驱动的AI视频生成模型。该模型能够将静态照片转化为具有面部表情和头部动作的动态视频,与给定的音频文件同步。Loopy利用先进的扩散模型技术,无需额外的空间信号或条件,捕捉并学习长期运动信息,从而生成自然流畅的动作。其主要功能包括音频驱动、面部动作生成、无需额外条件以及长期运动信息捕捉。Loopy适用于娱乐、教育、影视制作等多种场景。

ShowNotes

一个提供与音频转录和创建节目笔记相关的服务的网站,它借助chatGPT 将YouTube自动字幕转换为播客节目笔记。

Wav2Lip

Wav2Lip是一款开源的唇形同步工具,能够将音频文件转换为与口型同步的视频。它支持多种语言,适用于视频编辑、游戏开发和虚拟现实等多个领域。Wav2Lip具备音频驱动口型生成、面部表情同步和多语言支持等功能,采用先进的技术原理,如数据预处理、音频特征提取、口型编码器、音频到口型映射及生成对抗网络(GAN)。该工具提升了电影和视频的后期制作质量,增强了虚拟现实中的交互体验,还用于游戏开发、语言学习和

Ondoku

Ondoku 是一款支持多语言的文字转语音工具,提供文本输入、图片文字提取及语音调整功能。用户可将文本或图片中的文字转换为自然语音,并下载为音频文件。适用于教育、娱乐、商务等多种场景,如课程讲解、有声书制作和视频配音,提升信息传播效率。

WorldSense

WorldSense是由小红书与上海交通大学联合开发的多模态基准测试工具,用于评估大型语言模型在现实场景中对视频、音频和文本的综合理解能力。该平台包含1662个同步视频、3172个问答对,覆盖8大领域及26类认知任务,强调音频与视频信息的紧密耦合。所有数据经专家标注并多重验证,确保准确性。适用于自动驾驶、智能教育、监控、客服及内容创作等多个领域,推动AI模型在多模态场景下的性能提升。

Loopy AI

字节跳动和浙江大学联合开发的音频驱动的AI视频生成模型,能够将静态图像转化为动态视频,实现音频与面部表情、头部动作的完美同步。

Musico

Musico 是一个人工智能驱动的软件引擎,可以生成音乐。 它可以对手势、动作、代码或其他声音做出反应。

Video

Video-LLaVA2是一款由北京大学ChatLaw课题组开发的开源多模态智能理解系统。该系统通过时空卷积(STC)连接器和音频分支,显著提升了视频和音频的理解能力。其主要功能包括视频理解、音频理解、多模态交互、视频问答和视频字幕生成。时空建模和双分支框架是其核心技术原理。Video-LLaVA2广泛应用于视频内容分析、视频字幕生成、视频问答系统、视频搜索和检索、视频监控分析及自动驾驶等领域。

Stability AI

Stability AI提供了一套完整的生成式AI模型,覆盖图像、视频和音频等多个领域,旨在推动AI技术的普及和应用。

TTS

TTS语音向导是一种工具,允许用户通过微软Azure语音识别和TTS将语音转换为文本,然后再转换回语音。它还向VRChat发送OSC消息以在头像上显示文本。该工具有许多自定义选项,包括100...