语言模型

WiS

WiS是一个基于“谁是卧底”游戏规则的在线AI竞赛平台,专为评估和分析大型语言模型(LLMs)在多智能体系统中的行为而设计。平台提供统一的模型评估接口、实时排行榜、全面的行为评估功能以及详尽的数据可视化支持,旨在为研究人员和开发者提供一个直观且高效的工具,用于测试和优化智能体在复杂交互环境中的表现。

LIMO

LIMO是由上海交通大学研发的一种高效推理方法,通过少量高质量训练样本激活大语言模型的复杂推理能力。其核心假设是“少即是多推理假设”,即在预训练阶段已具备丰富知识的模型中,复杂推理能力可通过精心设计的样本被有效激发。LIMO在多个数学推理基准测试中表现优异,且数据使用效率极高,仅需1%的数据即可达到显著效果。适用于教育、科研、工业和医疗等多个领域。

Infinity

Infinity-MM是智源研究院发布的千万级多模态指令数据集,包含4300万条样本,涵盖视觉问答、文字识别、文档分析及数学推理等多领域任务。它通过严格的筛选和去重保证数据质量,并采用合成数据生成技术扩展数据集规模。基于此数据集,智源研究院训练出了20亿参数的Aquila-VL-2B模型,在多项基准测试中表现出色,推动了多模态AI领域的研究与发展。

LongCite

LongCite是清华大学研发的一项旨在提升大型语言模型在长文本问答中可信度和可验证性的项目。它通过生成细粒度的句子级引用,帮助用户验证模型回答的准确性。LongCite包含LongBench-Cite评估基准、CoF自动化数据构建流程、LongCite-45k数据集,以及基于该数据集训练的模型。这些模型能够处理长文本内容,提供准确的问答服务,并附带可追溯的引用,增强信息的透明度和可靠性。

通古大模型

通古大模型是由华南理工大学研发的古籍文言文处理AI工具,基于百川2-7B-Base进行增量预训练,结合24.1亿古籍语料和400万对话数据,采用RAT和RAG技术提升古籍处理效果。支持古文句读、文白翻译、诗词创作、古籍赏析、检索问答及辅助整理等功能,广泛应用于古籍数字化、教育、文化传承与学术研究等领域。

MT

MT-MegatronLM 是摩尔线程推出的开源混合并行训练框架,支持密集模型、多模态模型和 MoE 模型的高效训练。采用 FP8 混合精度、高性能算子库和集合通信库,提升 GPU 集群算力利用率。通过模型并行、数据并行和流水线并行技术,实现大规模语言模型的高效分布式训练,适用于科研、企业及定制化 AI 应用场景。

Darwin模型

Darwin模型是一个专门为自然科学领域(尤其是物理、化学和材料科学)设计的大语言模型(LLM),只要通过整合结构化和非结构化的科学知识,提升语言模型在科学研究

FoxBrain

FoxBrain是由鸿海研究院推出的大型语言模型,基于Meta Llama 3.1架构,拥有70B参数,专注于数学与逻辑推理领域。其采用高效训练策略,结合高质量中文数据与Adaptive Reasoning Reflection技术,提升推理能力。FoxBrain适用于智能制造、智慧教育、智能办公等多个场景,支持数据分析、代码生成、文书协作等功能,具备较强的上下文处理能力和稳定性。

LongWriter

LongWriter是一款由清华大学与智谱AI合作开发的长文本生成模型,能够生成超过10,000字的连贯文本。该模型基于增强的长上下文大型语言模型,采用了直接偏好优化(DPO)技术和AgentWrite方法,能够处理超过100,000个token的历史记录。LongWriter适用于多种应用场景,包括学术研究、内容创作、出版行业、教育领域和新闻媒体等。

Open Avatar Chat

Open Avatar Chat是阿里开源的模块化实时数字人对话系统,支持低延迟交互与多模态输入输出。系统采用模块化架构,允许灵活配置语音识别、语言模型和语音合成等组件,兼容本地与云服务。支持2D/3D数字人渲染,适用于客户服务、教育、娱乐及企业应用等多个场景,为开发者提供高效、灵活的AI对话解决方案。