场景

ThinkAny

一款新时代AI搜索引擎,利用RAG技术检索和聚合优质内容,结合AI的智能答疑功能,高效解答用户问题。

Sitcom

Sitcom-Crafter是一款由多所高校联合开发的3D场景人类动作生成系统,能够根据剧情描述生成多样化、符合物理规律的动作,包括行走、交互及多人协作。系统具备八大模块,包含核心动作生成与增强功能,如碰撞修正、运动同步与手部姿态检索。其核心技术包括3D场景感知与自监督SDF策略,无需额外数据即可生成自然动作。适用于动画、游戏、VR/AR、影视及教育等多个领域,提升创作效率与智能化水平。

iDP3

iDP3是一种基于自我中心3D视觉表征的改进型人形机器人运动策略,由斯坦福大学等机构联合开发。它摒弃了对精确相机校准和点云分割的需求,具备出色的视图、对象及场景泛化能力,可高效适应未知环境。此外,其优化的视觉编码器和扩散模型进一步提高了学习和推理性能,在家庭、工业、医疗、搜救及教育等领域具有广泛应用潜力。

Particle News

Particle News是一款以AI驱动的新闻阅读平台,通过聚合多源信息,为用户提供个性化、简洁的新闻摘要与多视角报道。其核心功能包括个性化订阅、多样化新闻风格展示、互动问答及音频新闻服务,旨在帮助用户高效获取全面、客观的信息。适用于通勤、学习、工作等多种场景,适合各类用户群体。

GenXD

GenXD是一款由新加坡国立大学与微软联合开发的3D-4D联合生成框架,能够从任意数量的条件图像生成高质量的3D和4D场景。它通过数据整理流程提取相机姿态和物体运动信息,基于多视角时序模块分离相机与物体运动,并借助掩码潜在条件支持多种视角生成。GenXD支持3D场景重建、动态场景生成以及3D和4D数据融合,适用于视频游戏开发、电影制作、虚拟现实、建筑规划等多个领域。

DrivingDojo

DrivingDojo是一个由中国科学院自动化研究所与美团无人车团队合作研发的数据集,包含18,000个视频片段,涵盖全面的驾驶操作、多智能体交互及开放世界驾驶知识。它定义了动作指令跟随(AIF)基准,用于评估世界模型的预测能力,并支持自动驾驶算法开发、世界模型训练、多智能体交互模拟及罕见事件处理等多个应用场景。

OMNE Multiagent

OMNE Multiagent是一个基于长期记忆技术的大模型多智能体框架,由天桥脑科学研究院开发。它支持多个智能体协同工作,每个智能体能独立学习和理解环境,具备深度慢思考和实时适应能力。OMNE框架通过优化搜索空间和逻辑推理机制,提升了复杂问题的决策效率,并在金融、交通、制造、医疗等领域展现出广泛应用潜力。

Hi Echo

Hi Echo, 虚拟人口语教练。为您提供随时随地的一对一口语练习,覆盖多个对话场景和话题,比真人口语教练更专业地道;提供对话分数及完整对话评测报告,帮助快速提升口语能力。

ViewCrafter

ViewCrafter是一种由北京大学、香港中文大学和腾讯合作开发的先进视频扩散模型。它能够从单一或少量图像中合成高质量的新视图,结合视频扩散模型和基于点的3D表示,通过迭代视图合成策略和相机轨迹规划生成多样化的视图。该模型在多个数据集上展示了强大的泛化能力和性能,适用于实时渲染、沉浸式体验及场景级文本到3D生成等多种应用场景。