推理

Infinity

Infinity-MM是智源研究院发布的千万级多模态指令数据集,包含4300万条样本,涵盖视觉问答、文字识别、文档分析及数学推理等多领域任务。它通过严格的筛选和去重保证数据质量,并采用合成数据生成技术扩展数据集规模。基于此数据集,智源研究院训练出了20亿参数的Aquila-VL-2B模型,在多项基准测试中表现出色,推动了多模态AI领域的研究与发展。

法信法律基座大模型

法信法律基座大模型是一款基于深度学习技术的国家级法律AI基础设施,整合万亿级法律数据,具备法律语义理解、逻辑推理、内容生成等功能。它已在审判辅助、行政执法、公共法律服务等多个场景中落地应用,有效提升法律工作的智能化水平。

FoxBrain

FoxBrain是由鸿海研究院推出的大型语言模型,基于Meta Llama 3.1架构,拥有70B参数,专注于数学与逻辑推理领域。其采用高效训练策略,结合高质量中文数据与Adaptive Reasoning Reflection技术,提升推理能力。FoxBrain适用于智能制造、智慧教育、智能办公等多个场景,支持数据分析、代码生成、文书协作等功能,具备较强的上下文处理能力和稳定性。

子曰

子曰-o1是网易有道推出的国内首款支持分步式讲解的推理模型,采用14B参数轻量化设计,适配消费级显卡,在低显存设备上运行稳定。通过思维链技术模拟人类思考过程,输出详细解题步骤,特别适合教育场景,如K12数学教学和AI学习辅助。其具备强逻辑推理能力和自我纠错机制,支持启发式学习,提升用户理解与自主学习能力。

dots.llm1

dots.llm1 是小红书 hi lab 开源的中等规模 Mixture of Experts(MoE)文本大模型,拥有 1420 亿参数,激活参数为 140 亿。模型在 11.2T 高质量 token 数据上预训练,采用高效的 Interleaved 1F1B 流水并行和 Grouped GEMM 优化技术,提升训练效率。该模型支持多语言文本生成、复杂指令遵循、知识问答、数学与代码推理以及多轮

OlympicArena

OlympicArena是由多所高校与研究机构联合开发的多学科认知推理基准测试框架,包含11,163道国际奥赛双语题目,覆盖数学、物理、化学、生物、地理、天文学和计算机科学等7大领域。该平台通过答案级与过程级评估,全面衡量AI模型的逻辑与视觉推理能力,支持多模态输入并具备数据泄漏检测机制,适用于AI模型评估、训练优化、教育辅助及科研应用。

Open Deep Research

Open Deep Research 是一个开源 AI 智能体,支持多语言模型和 Firecrawl 数据提取,用于执行复杂的研究任务。它提供统一 API 和 Next.js 框架,具备实时数据处理、结构化信息提取及多维度分析能力,适用于文献综述、行业分析、投资研究等场景。

k1.5

k1.5 是月之暗面推出的多模态思考模型,具备强大的数学、代码、视觉推理能力。在 short-CoT 模式下,性能超越主流模型 550%,在 long-CoT 模式下达到 OpenAI o1 水平。支持文本与图像的联合处理,适用于复杂推理、跨模态分析、教育、科研等领域。通过长上下文扩展和策略优化,提升推理效率与准确性。

腾讯混元T1

T1(Thinker)是腾讯混元推出的深度思考模型,支持逻辑推理与联网搜索,具备高速响应和长文本处理能力。采用Hybrid-Mamba-Transformer架构,提升推理效率与准确性。适用于教育、医疗、市场分析等多个领域,输出简洁、幻觉低,适合复杂指令处理和多任务场景。

TongGeometry

TongGeometry是由北京通用人工智能研究院与北京大学人工智能研究所联合开发的几何模型,采用树搜索和神经符号推理技术,能自动生成高质量的几何竞赛题并完成证明。该工具构建了庞大的几何定理库,涵盖67亿个需辅助构造的定理,具备广泛应用场景,如数学竞赛、教育及研究领域,支持复杂几何问题的探索与教学资源开发。