音频

MacWhisper

MacWhisper是一款基于OpenAI Whisper技术的AI音频转文字工具。它能够在本地设备上将音频文件快速转录成文本,并支持多种语言。该工具具有多种音频和视频格式兼容性,提供不同的转录模型选择,支持字幕导出,且具备视频播放功能。最新版本增加了基于Apple芯片的硬件加速,提升了实时语音识别效率,并集成了OpenAI语言模型以提高转录和翻译的准确性。MacWhisper适用于记者、媒体工作

Video

Video-LLaVA2是一款由北京大学ChatLaw课题组开发的开源多模态智能理解系统。该系统通过时空卷积(STC)连接器和音频分支,显著提升了视频和音频的理解能力。其主要功能包括视频理解、音频理解、多模态交互、视频问答和视频字幕生成。时空建模和双分支框架是其核心技术原理。Video-LLaVA2广泛应用于视频内容分析、视频字幕生成、视频问答系统、视频搜索和检索、视频监控分析及自动驾驶等领域。

CapCut

CapCut是一款由抖音开发的免费视频编辑软件,支持视频剪辑、音频编辑、字幕生成、滤镜应用及转场效果等多种功能。该软件界面友好,易于学习,适用于初学者和专业人士。它不仅可以在移动设备上使用,还支持PC端,便于用户跨平台编辑和分享视频。CapCut广泛应用于社交媒体内容创作、商业宣传、教育和培训以及个人项目。

Bark

Bark是一款开源的文本到音频转换模型,由Suno AI开发,能够生成逼真的多语言语音及多种音频类型,包括音乐和背景噪音,并支持非语言交流的声音。该模型提供预训练模型,适用于研究和商业用途。其主要功能涵盖文本到音频转换、多语言支持、音频多样性和非语言交流模拟。Bark在多语言内容创作、音频内容生成和非语言交流场景中具有广泛应用。

Liner.ai

Liner.ai 是一款面向非专业程序员和数据科学家的机器学习工具,通过简单的点击操作即可训练模型,无需编写代码。该工具提供多种项目模板,涵盖图像、文本、音频和视频分类,以及对象检测和图像分割等任务。Liner.ai 支持在 CPU 上快速训练模型,并可在本地完成训练以保护数据隐私。此外,该工具还允许用户轻松地将模型导出到多个平台,适合初学者和专业人士使用。

Wav2Lip

Wav2Lip是一款开源的唇形同步工具,能够将音频文件转换为与口型同步的视频。它支持多种语言,适用于视频编辑、游戏开发和虚拟现实等多个领域。Wav2Lip具备音频驱动口型生成、面部表情同步和多语言支持等功能,采用先进的技术原理,如数据预处理、音频特征提取、口型编码器、音频到口型映射及生成对抗网络(GAN)。该工具提升了电影和视频的后期制作质量,增强了虚拟现实中的交互体验,还用于游戏开发、语言学习和

Buzz

Buzz是一款基于OpenAI Whisper模型的离线语音转文字工具,支持实时语音转文字和音频视频文件转录。它具备多语言识别和翻译功能,支持多种格式导出,并能在本地离线操作以保护用户隐私。主要应用于视频字幕制作、采访记录整理、语言学习辅助、会议记录和学术研究等场景。

EchoMimic

EchoMimic是一款由阿里蚂蚁集团开发的AI数字人开源项目,通过深度学习模型结合音频和面部标志点,创造出高度逼真的动态肖像视频。该工具支持音频同步动画、面部特征融合、多模态学习和跨语言能力,适用于娱乐、教育和虚拟现实等领域。其独特的技术原理包括音频特征提取、面部标志点定位、面部动画生成和多模态学习,使用了卷积神经网络(CNN)、循环神经网络(RNN)和生成对抗网络(GAN)等深度学习模型,实现

MOFA

MOFA-Video是由腾讯AI实验室和东京大学研究人员开发的开源图像生成视频模型。该工具通过生成运动场适配器对图像进行动画处理,能够通过稀疏控制信号(如手动轨迹、面部关键点序列或音频)实现对视频生成过程中动作的精准控制。MOFA-Video支持零样本学习,能够将多种控制信号组合使用,生成复杂的动画效果,并能生成较长的视频片段。 ---

琴乐大模型

琴乐大模型是一款由腾讯AI Lab与腾讯TME天琴实验室联合开发的人工智能音乐创作工具。该工具能够根据用户输入的关键词、描述性语句或音频,生成高质量的立体声音频或多轨乐谱,并支持自动编辑功能。琴乐大模型采用先进的技术框架,包括音频文本对齐、乐谱/音频表征提取、大语言模型预测以及流匹配和声码器技术,确保生成的音乐符合音乐理论和人类审美标准。