虚拟

Scenethesis

Scenethesis是NVIDIA推出的AI框架,可通过文本生成高质量的3D场景。它结合LLM与视觉技术,经过布局规划、视觉细化、物理优化和场景验证四个阶段,确保生成结果具备物理合理性和空间连贯性。支持用户交互与多样化场景构建,广泛应用于VR/AR、游戏开发、具身智能及虚拟内容创作等领域。

ZenCtrl

ZenCtrl 是一款基于 AI 技术的图像生成工具,可从单张图像生成多视角、多样化场景,支持实时元素再生。具备高精度控制功能,适用于产品摄影、虚拟试穿、人物肖像控制、插画等场景。提供预处理与后处理能力,提升图像质量,架构模块化,适应多种创意需求。

PrimitiveAnything

PrimitiveAnything是由腾讯AIPD与清华大学联合开发的3D形状生成框架,通过将复杂3D形状分解为基本基元并自回归生成,实现高质量、高保真度的3D模型重建。其支持从文本或图像生成内容,具备高效存储、模块化设计及良好的泛化能力,适用于3D建模、游戏开发、UGC创作及VR/AR应用等领域。

Chinese

Chinese-LiPS是由智源研究院与南开大学联合开发的高质量中文多模态语音识别数据集,包含100小时语音、视频及手动转录文本。其创新性融合唇读视频与幻灯片内容,显著提升语音识别性能,实验表明可降低字符错误率约35%。适用于教学、科普、虚拟讲解等复杂语境,为多模态语音识别研究提供丰富数据支持。

DreamFit

DreamFit是由字节跳动与高校联合研发的虚拟试衣框架,专注于轻量级服装图像生成。通过优化文本提示与特征融合技术,提升图像质量与一致性,降低模型复杂度和训练成本。支持姿势控制、多主题服装迁移等功能,适用于虚拟试穿、服装设计、广告制作等多个场景,具备良好的泛化能力和易用性。

Paw Party

Paw Party是一款结合AI技术的宠物养成社交游戏,玩家可与个性化的AI宠物互动,并参与多种趣味活动如钓鱼、烹饪和农场经营。游戏支持社交互动,让玩家与他人及AI宠物共同体验乐趣。其个性化定制和沉浸式玩法,为用户提供情感陪伴与休闲娱乐的双重体验。

Being

Being-M0是由北京大学、中国人民大学等机构联合研发的首个大规模人形机器人通用动作生成模型。基于百万级动作数据集 MotionLib 和 MotionBook 编码技术,实现动作序列的高效表示与生成。该模型支持文本驱动动作生成、动作迁移及多模态数据处理,可应用于人形机器人控制、动画制作、VR/AR、人机交互及运动康复等多个领域,显著提升动作生成的多样性和语义对齐精度。

WorldMem

WorldMem是由多所高校与研究机构联合开发的AI世界生成模型,通过引入记忆机制解决传统模型在长时间序列生成中的一致性问题。它支持动态环境模拟、多场景交互及长期一致性保持,适用于虚拟游戏、VR/AR、自动驾驶等多个领域,具备高度真实性和可扩展性。

Sketch2Anim

Sketch2Anim是由爱丁堡大学、Snap Research与东北大学联合开发的AI工具,可将2D草图故事板自动转换为高质量3D动画。基于条件运动合成技术,支持精确控制动画生成,包含多条件运动生成器和2D-3D神经映射器两大核心模块。具备交互式编辑功能,提高动画制作效率与灵活性,适用于影视、游戏、广告、教育及VR/AR等多个领域。

DICE

DICE-Talk是由复旦大学与腾讯优图实验室联合开发的动态肖像生成框架,能够根据音频和参考图像生成具有情感表达的高质量视频。其核心在于情感与身份的解耦建模,结合情感关联增强和判别机制,确保生成内容的情感一致性与视觉质量。该工具支持多模态输入,具备良好的泛化能力和用户自定义功能,适用于数字人、影视制作、VR/AR、教育及心理健康等多个领域。