虚拟

LightLab

LightLab是一款基于扩散模型的图像光源控制工具,支持对图像中的光源强度、颜色、环境光以及虚拟光源进行精细调整。通过结合真实照片与合成图像训练,该工具能生成逼真的光照效果,如阴影和反射。其交互式界面使用户能够直观地进行光照编辑,适用于摄影后期、影视特效、室内设计、游戏开发和广告制作等多个领域。

Doji

Doji 是一款基于 AI 的虚拟试衣工具,用户可通过上传照片生成高精度虚拟形象,并在该形象上试穿多种服装。支持多品牌试穿及外部链接导入,提供个性化推荐与社交分享功能,提升购物体验与互动性。

DICE

DICE-Talk是由复旦大学与腾讯优图实验室联合开发的动态肖像生成框架,能够根据音频和参考图像生成具有情感表达的高质量视频。其核心在于情感与身份的解耦建模,结合情感关联增强和判别机制,确保生成内容的情感一致性与视觉质量。该工具支持多模态输入,具备良好的泛化能力和用户自定义功能,适用于数字人、影视制作、VR/AR、教育及心理健康等多个领域。

Sketch2Anim

Sketch2Anim是由爱丁堡大学、Snap Research与东北大学联合开发的AI工具,可将2D草图故事板自动转换为高质量3D动画。基于条件运动合成技术,支持精确控制动画生成,包含多条件运动生成器和2D-3D神经映射器两大核心模块。具备交互式编辑功能,提高动画制作效率与灵活性,适用于影视、游戏、广告、教育及VR/AR等多个领域。

WorldMem

WorldMem是由多所高校与研究机构联合开发的AI世界生成模型,通过引入记忆机制解决传统模型在长时间序列生成中的一致性问题。它支持动态环境模拟、多场景交互及长期一致性保持,适用于虚拟游戏、VR/AR、自动驾驶等多个领域,具备高度真实性和可扩展性。

Being

Being-M0是由北京大学、中国人民大学等机构联合研发的首个大规模人形机器人通用动作生成模型。基于百万级动作数据集 MotionLib 和 MotionBook 编码技术,实现动作序列的高效表示与生成。该模型支持文本驱动动作生成、动作迁移及多模态数据处理,可应用于人形机器人控制、动画制作、VR/AR、人机交互及运动康复等多个领域,显著提升动作生成的多样性和语义对齐精度。

Paw Party

Paw Party是一款结合AI技术的宠物养成社交游戏,玩家可与个性化的AI宠物互动,并参与多种趣味活动如钓鱼、烹饪和农场经营。游戏支持社交互动,让玩家与他人及AI宠物共同体验乐趣。其个性化定制和沉浸式玩法,为用户提供情感陪伴与休闲娱乐的双重体验。

DreamFit

DreamFit是由字节跳动与高校联合研发的虚拟试衣框架,专注于轻量级服装图像生成。通过优化文本提示与特征融合技术,提升图像质量与一致性,降低模型复杂度和训练成本。支持姿势控制、多主题服装迁移等功能,适用于虚拟试穿、服装设计、广告制作等多个场景,具备良好的泛化能力和易用性。

Chinese

Chinese-LiPS是由智源研究院与南开大学联合开发的高质量中文多模态语音识别数据集,包含100小时语音、视频及手动转录文本。其创新性融合唇读视频与幻灯片内容,显著提升语音识别性能,实验表明可降低字符错误率约35%。适用于教学、科普、虚拟讲解等复杂语境,为多模态语音识别研究提供丰富数据支持。

PrimitiveAnything

PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。