虚拟

抖音AI分身

抖音AI分身是一款基于豆包大模型算法的AI虚拟分身工具,支持创作者创建与自身风格相似的虚拟形象,用于全天候互动交流。其功能包括AI互动空间、AI群聊、AI私信、AI评论和AI直播,广泛应用于虚拟直播、互动娱乐、内容创作、品牌营销及教育培训等领域,助力创作者高效运营并提升用户体验。

PhysGen3D

PhysGen3D 是一款能够将单张图像转换为交互式 3D 场景并生成物理真实视频的工具。它结合图像分析与物理模拟技术,支持精确控制物体属性、动态效果整合及高质量渲染。适用于影视、VR/AR、教育、游戏和广告等多个领域,提供高效且逼真的视觉内容生成能力。

DistriFusion

DistriFusion是一个专为加速高分辨率扩散模型在多GPU环境中生成图像的分布式并行推理框架。通过将图像分割成多个小块并分配至不同设备上进行独立处理,它能够在不增加额外训练负担的情况下,将推理速度提升高达六倍,同时保持图像质量。其技术原理包括Patch Parallelism(分片并行)、异步通信、位移补丁并行性等,适用于多种现有的扩散模型。应用场景包括AI艺术创作、游戏和电影制作、VR/A

ObjectMover

ObjectMover是由香港大学与Adobe Research联合开发的图像编辑模型,专注于解决物体移动、插入和移除过程中的光影协调问题。通过视频先验迁移和序列到序列建模技术,实现对光照、阴影和遮挡关系的精准控制。支持多任务学习,提升模型在真实场景中的适应性。广泛应用于特效制作、虚拟场景编辑、游戏开发等领域,具备高效、真实的图像编辑能力。

芦笋录屏

一款支持屏幕录制、人像+屏幕录制等多种模式的录屏工具,适用于教学、演示等场景。用户可以通过芦笋录制高质量的视频,并直接上传到云端进行分享。

MVPaint

MVPaint是一款基于同步多视角扩散技术的3D纹理生成框架,具备同步多视角生成、空间感知3D修补和UV细化三大核心功能。它能够生成高分辨率、无缝且多视图一致的纹理,广泛应用于游戏开发、动画制作、虚拟现实、增强现实及建筑可视化等领域。

Q

以OpenAI的ChatGPT API为基础的完全自适应式人工智能导师体验。Q-Chat旨在让学习变得有趣和有效,它不仅仅是一个基本的聊天机器人,还可以帮助您理解材料、指引您学习语言,以及在您不知从何处开始时提供学习指导。

TANGOFLUX

TANGOFLUX是一款高效文本到音频生成模型,具备约5.15亿参数量,能够在3.7秒内生成30秒高质量音频。它采用CLAP-Ranked Preference Optimization框架优化音频输出,支持多种应用场景,包括多媒体内容创作、音频制作、播客、教育及虚拟助手开发。其开源特性推动了相关领域的技术进步。

JoyGen

JoyGen是由京东科技与香港大学联合开发的音频驱动型3D说话人脸视频生成框架,能够实现唇部动作与音频信号的精准同步,并提供高质量的视觉效果。该工具采用单步UNet架构进行高效视频编辑,基于130小时中文视频数据集训练,在唇音同步和视觉质量方面表现优异。适用于虚拟主播、动画制作、在线教育及多语言视频生成等多个领域,为视频内容创作提供了创新解决方案。

Hi Echo

Hi Echo, 虚拟人口语教练。为您提供随时随地的一对一口语练习,覆盖多个对话场景和话题,比真人口语教练更专业地道;提供对话分数及完整对话评测报告,帮助快速提升口语能力。