虚拟

HeyReal

HeyReal 是一款基于 AI 技术的虚拟角色互动平台,支持用户自定义角色外观、性格和背景,提供自然流畅的对话体验。平台涵盖多种角色类型,支持多语言模型,并注重隐私保护,适用于社交陪伴、角色扮演、创意写作及语言学习等场景。

有言

是一个一站式AIGC视频创作平台,它提供了一个无需拍摄、剪辑和后期处理的解决方案,能够一键生成3D视频。

OmniBooth

OmniBooth是一款由华为诺亚方舟实验室与香港科技大学联合开发的图像生成框架,支持基于文本或图像的多模态指令控制及实例级定制。它通过高维潜在控制信号实现对图像中对象位置和属性的精准操控,具备多模态嵌入提取、空间变形技术以及特征对齐网络等功能,广泛应用于数据集生成、内容创作、游戏开发、虚拟现实及广告营销等领域。

Hi Echo

Hi Echo, 虚拟人口语教练。为您提供随时随地的一对一口语练习,覆盖多个对话场景和话题,比真人口语教练更专业地道;提供对话分数及完整对话评测报告,帮助快速提升口语能力。

DynamicFace

DynamicFace是由小红书团队开发的视频换脸技术,结合扩散模型与时间注意力机制,基于3D面部先验知识实现高质量、一致性的换脸效果。通过四种精细的面部条件分解和身份注入模块,确保换脸后的人脸在不同表情和姿态下保持一致性。该技术适用于视频与图像换脸,广泛应用于影视制作、虚拟现实、社交媒体等内容创作领域,具备高分辨率生成能力和良好的时间连贯性。

JoyGen

JoyGen是由京东科技与香港大学联合开发的音频驱动型3D说话人脸视频生成框架,能够实现唇部动作与音频信号的精准同步,并提供高质量的视觉效果。该工具采用单步UNet架构进行高效视频编辑,基于130小时中文视频数据集训练,在唇音同步和视觉质量方面表现优异。适用于虚拟主播、动画制作、在线教育及多语言视频生成等多个领域,为视频内容创作提供了创新解决方案。

Q

以OpenAI的ChatGPT API为基础的完全自适应式人工智能导师体验。Q-Chat旨在让学习变得有趣和有效,它不仅仅是一个基本的聊天机器人,还可以帮助您理解材料、指引您学习语言,以及在您不知从何处开始时提供学习指导。

TANGOFLUX

TANGOFLUX是一款高效文本到音频生成模型,具备约5.15亿参数量,能够在3.7秒内生成30秒高质量音频。它采用CLAP-Ranked Preference Optimization框架优化音频输出,支持多种应用场景,包括多媒体内容创作、音频制作、播客、教育及虚拟助手开发。其开源特性推动了相关领域的技术进步。

MVPaint

MVPaint是一款基于同步多视角扩散技术的3D纹理生成框架,具备同步多视角生成、空间感知3D修补和UV细化三大核心功能。它能够生成高分辨率、无缝且多视图一致的纹理,广泛应用于游戏开发、动画制作、虚拟现实、增强现实及建筑可视化等领域。

ObjectMover

ObjectMover是由香港大学与Adobe Research联合开发的图像编辑模型,专注于解决物体移动、插入和移除过程中的光影协调问题。通过视频先验迁移和序列到序列建模技术,实现对光照、阴影和遮挡关系的精准控制。支持多任务学习,提升模型在真实场景中的适应性。广泛应用于特效制作、虚拟场景编辑、游戏开发等领域,具备高效、真实的图像编辑能力。