深度学习

Motion Dreamer

Motion Dreamer是由香港科技大学(广州)研发的视频生成框架,采用两阶段架构生成物理合理的视频内容。通过引入“实例流”实现从稀疏到密集的运动控制,支持用户以少量提示生成时间连贯的视频。其随机掩码训练策略增强了模型的推理能力与泛化性能,已在多个数据集上验证其优越性。适用于视频创作、动画制作、VR/AR及自动驾驶等多个领域。

I2V

I2V-01-Live是一款基于深度学习技术的图生视频工具,可将静态二维图像转化为动态视频,具有高度流畅的动作表现和多样化的艺术风格适配能力。其核心功能包括动态呈现、动作效果增强及稳定的表情管理,广泛应用于社交媒体、广告营销、动画制作、教育培训以及游戏开发等领域。

智谱AI绘画

智谱AI绘画可根据用户的描述创作出新的艺术作品,还能够模仿不同的艺术风格,提供个性化的图像编辑和创作服务

星火语音同传大模型

星火语音同传大模型是科大讯飞推出的国内首个端到端语音同传AI系统,支持37种语言,具备高精度翻译、流式处理、语境理解和语音合成优化等功能。模型可在5秒内完成同传,准确度高,适用于国际会议、商务交流、教育等场景,支持译文长度调节和设备兼容,提升跨语言沟通效率。

DocMind

DocMind是一款基于Transformer架构的文档智能大模型,融合了深度学习、NLP和CV技术,用于处理富文本文档的复杂结构和视觉信息。它能够精准识别文档实体、捕捉文本依赖关系并深入理解文档内容,支持知识库结合,提升专业文档理解能力。DocMind还具备自动执行文档相关任务的功能,如问题解答、文档分类整理等,广泛应用于法律、教育、金融等领域。

Dubbing AI

DubbingAI 语音生成器作为实时变声器,可以将任何语音转换为优质语音和克隆语音。从游戏玩家到直播主播和内容创作者。每个人都可以使用 Dubbing AI 生成跨年龄、语言和口音的逼真配音。

TripoSF

TripoSF是由VAST推出的新型3D基础模型,采用SparseFlex表示方法和稀疏体素结构,显著降低内存占用并提升高分辨率建模能力。其“视锥体感知的分区体素训练”策略优化了训练效率,使模型在细节捕捉、拓扑结构支持和实时渲染方面表现突出。实验数据显示,TripoSF在Chamfer Distance和F-score等关键指标上分别降低82%和提升88%。适用于视觉特效、游戏开发、具身智能及产品

Multi

Multi-Speaker 是 AudioShake 推出的高分辨率多说话人分离工具,支持将音频中不同说话人的语音精准分离至独立轨道,适用于广播级音频处理。它具备高保真音频处理能力,支持高采样率,能处理长达数小时的录音,在复杂场景下仍能保持稳定效果。广泛应用于影视、播客、无障碍服务及内容创作等领域,提升音频编辑效率与质量。

MatAnyone

MatAnyone是一款由南洋理工大学S-Lab实验室与商汤科技联合开发的视频抠图框架,专注于复杂背景下人像视频的精准分割。采用一致内存传播和区域自适应内存融合技术,确保视频中目标的语义稳定性和边界细节精度。结合大规模分割数据和优化的训练策略,提升了模型在真实场景下的性能。适用于影视制作、直播、广告、游戏开发等多个领域,具备高精度、强适应性和良好的交互性。

FaceSwap

FaceSwap是一款开源AI换脸软件,利用深度学习技术实现人脸检测、提取及替换。它支持跨平台操作,包括Windows、macOS和Linux,并可借助GPU加速提升处理效率。FaceSwap还允许用户自定义模型训练以优化换脸效果,广泛应用于影视制作、教育、游戏开发以及虚拟现实等领域。