计算

Sa2VA

Sa2VA是由字节跳动联合多所高校开发的多模态大语言模型,结合SAM2与LLaVA技术,实现对图像和视频的密集、细粒度理解。它支持指代分割、视觉对话、视觉提示理解等多种任务,具备零样本推理能力和复杂场景下的高精度分割效果。适用于视频编辑、智能监控、机器人交互、内容创作及自动驾驶等多个领域。

PixelHacker

PixelHacker是一款由华中科技大学与VIVO AI Lab联合开发的图像修复模型,采用潜在类别引导机制,通过线性注意力实现结构与语义一致性的高质量修复。基于大规模数据集训练并经过多基准微调,支持多种图像类型与分辨率。适用于照片修复、对象移除、艺术创作、医学影像及文化保护等领域。

SocioVerse

SocioVerse是由复旦大学等机构联合开发的社会模拟平台,基于大语言模型和1000万真实用户数据构建与现实对齐的模拟环境。系统包含社会环境、用户引擎、场景引擎和行为引擎四大模块,支持多场景应用,如政治选举预测、新闻传播分析、经济调查和政策评估。它能够模拟群体行为,预测事件趋势,为社会科学研究提供高效工具。

Wonder Animation

Wonder Animation是一款基于AI的视频到3D场景转换工具,由Autodesk的Wonder Dynamics研发。它能够将视频序列转化为包含摄像机设置和角色动画的3D动画场景,支持多剪辑和多种镜头处理。通过深度学习和计算机视觉技术,Wonder Animation在3D空间中重建场景,并确保动作和场景的高度同步与一致。此工具特别适合动画电影制作、视频游戏开发、虚拟制作以及增强现实和虚

MiLoRA

MiLoRA是一种参数高效的大型语言模型微调方法,通过奇异值分解将权重矩阵分为主要和次要两部分,专注于次要部分的优化以降低计算成本,同时保持模型的高精度和高效性。它在自然语言处理任务中表现出色,适用于文本分类、情感分析、问答系统等多个领域,并在多租户环境和实时内容生成中展现出显著优势。 ---

R1

R1-Onevision 是一款基于 Qwen2.5-VL 微调的开源多模态大语言模型,擅长处理图像与文本信息,具备强大的视觉推理能力。它在数学、科学、图像理解等领域表现优异,支持多模态融合与复杂逻辑推理。模型采用形式化语言和强化学习技术,提升推理准确性与可解释性,适用于科研、教育、医疗及自动驾驶等场景。

IMAGPose

IMAGPose是由南京理工大学开发的统一条件框架,用于人体姿态引导的图像生成。其核心功能包括多场景适应、细节与语义融合、灵活对齐及全局一致性保障。通过FLC、ILC和CVA模块,解决了传统方法在生成多样姿态图像时的局限性,适用于虚拟现实、影视制作、电商展示等多个领域。

VideoPhy

VideoPhy是一款由UCLA和谷歌研究院联合开发的基准测试工具,旨在评估视频生成模型的物理常识能力。它包含688条描述性字幕,通过人类和自动评估方式,衡量生成视频是否符合物理规则。VideoPhy不仅揭示了现有模型的不足,还推出了自动评估工具VideoCon-Physics,以推动模型性能的提升。其应用场景广泛,包括视频生成模型开发、计算机视觉研究、教育与培训以及娱乐产业等。

颜色代码表

一款为设计师和开发者提供专业的色彩工具,提供的调色板集实用性与创意性于一体,颜色代码表帮助设计师和开发者创造优秀的作品。

FaceLift

FaceLift是一种由Adobe与加州大学默塞德分校联合开发的AI工具,能够从单张人脸图像中重建出高精度的3D头部模型。其核心技术包括多视图扩散模型和GS-LRM重建器,支持多视角一致性、身份保持和4D新视图合成,适用于虚拟现实、数字娱乐、远程交互等多个领域。该工具具备强大的几何与纹理细节表现能力,且可与2D面部重动画技术集成,广泛应用于内容创作与科研场景。