计算

KTransformers

KTransformers是一款由清华大学KVCache.AI团队与趋境科技联合开发的开源工具,用于提升大语言模型的推理性能并降低硬件门槛。它支持在24GB显卡上运行671B参数模型,利用MoE架构和异构计算策略实现高效推理,预处理速度达286 tokens/s,推理速度达14 tokens/s。项目提供灵活的模板框架,兼容多种模型,并通过量化和优化技术减少存储需求,适合个人、企业及研究场景使用。

MHA2MLA

MHA2MLA是一种由多所高校与研究机构联合开发的数据高效微调方法,基于多头潜在注意力机制(MLA)优化Transformer模型的推理效率。通过Partial-RoPE和低秩近似技术,显著减少KV缓存内存占用,同时保持模型性能稳定。仅需少量数据即可完成微调,适用于边缘设备、长文本处理及模型迁移等场景,具备高兼容性和低资源消耗优势。

揽睿星舟

揽睿星舟是一款由翼方健数自主研发的云端AI训推一体化算力平台,提供高性能GPU计算资源、开箱即用的训练与推理环境、丰富的AI工具链及预训练模型,支持多机多卡分布式训练和隐私安全计算,旨在解决AI协作中的安全信任问题并加速AI价值的释放。它包含推理服务、工作空间、星舟API、镜像社区、应用版与专业版等多种功能和服务,适用于模型训练、推理、大模型API服务、隐私安全计算及数据集共享等多个应用场景。

Mercury Coder

Mercury Coder 是 Inception Labs 推出的扩散型大语言模型,专为代码生成设计。它采用“从粗到细”机制,支持并行生成,每秒可处理超过 1000 个 token,效率显著高于传统模型。具备代码生成、补全、优化、多语言支持及可控生成等功能,适用于开发效率提升、教育辅助、代码优化及低代码平台集成等场景。

SHMT

SHMT是一种基于自监督学习的高级化妆转移技术,由阿里巴巴达摩院与武汉理工大学联合研发。该技术无需成对训练数据,可将多种化妆风格自然迁移到目标面部图像上,通过“解耦-重建”策略和迭代双重对齐模块,实现高精度的纹理控制与对齐校正。适用于图像处理、虚拟试妆、影视设计等多个领域,具有高效、灵活、高质量的特点。

HMoE

HMoE(混合异构专家模型)是腾讯混元团队提出的一种新型神经网络架构,旨在提升大型语言模型的性能和计算效率。通过引入不同规模的专家来处理不同复杂度的输入数据,HMoE增强了模型的专业化程度,并采用了新的训练目标和策略,如P-Penalty Loss,以提高参数利用率和计算效率。HMoE在多个预训练评估基准上表现出色,适用于自然语言处理、内容推荐、语音识别、图像和视频分析以及多模态学习等领域。

Casevo

Casevo是一款由中国传媒大学研发的开源社会传播模拟系统,结合大语言模型与多智能体技术,用于模拟人类认知、决策和社会交互,分析并预测社会传播现象。其模块化设计支持从场景设定到复杂社会网络建模的全流程仿真,适用于新闻传播、社会计算、公共政策等多个领域,助力研究者进行理论构建与策略优化,推动AI在社会科学中的应用发展。

TrajectoryCrafter

TrajectoryCrafter是一种基于双流条件视频扩散模型的单目视频相机轨迹重定向工具,支持用户自定义相机运动路径并生成高质量、4D一致的视频内容。其核心技术包括解耦视图变换与内容生成、动态点云渲染以及混合数据集训练策略,具备强大的场景泛化能力。适用于沉浸式娱乐、视频创作、智能会议、自动驾驶及教育等多个领域。

猎户星空大模型

百亿级模型SOTA,支持 32万 tokens 的上下文能够一次性接受并处理约 45 万汉字的输入内容准确提取关键信息。

Augmented Physics

Augmented Physics是一款基于人工智能的教育工具,旨在通过计算机视觉技术和多模态语言模型,将物理教科书中的静态图表转化为动态交互式模拟,帮助学生更好地理解物理概念。它支持多种仿真类型,包括光学、运动学和电路等,并提供动态可视化和动画效果,同时无需编程技能即可创建仿真。