语言模型

MT

MT-MegatronLM 是摩尔线程推出的开源混合并行训练框架,支持密集模型、多模态模型和 MoE 模型的高效训练。采用 FP8 混合精度、高性能算子库和集合通信库,提升 GPU 集群算力利用率。通过模型并行、数据并行和流水线并行技术,实现大规模语言模型的高效分布式训练,适用于科研、企业及定制化 AI 应用场景。

dots.llm1

dots.llm1 是小红书 hi lab 开源的中等规模 Mixture of Experts(MoE)文本大模型,拥有 1420 亿参数,激活参数为 140 亿。模型在 11.2T 高质量 token 数据上预训练,采用高效的 Interleaved 1F1B 流水并行和 Grouped GEMM 优化技术,提升训练效率。该模型支持多语言文本生成、复杂指令遵循、知识问答、数学与代码推理以及多轮

WiS

WiS是一个基于“谁是卧底”游戏规则的在线AI竞赛平台,专为评估和分析大型语言模型(LLMs)在多智能体系统中的行为而设计。平台提供统一的模型评估接口、实时排行榜、全面的行为评估功能以及详尽的数据可视化支持,旨在为研究人员和开发者提供一个直观且高效的工具,用于测试和优化智能体在复杂交互环境中的表现。

node

Node-DeepResearch 是一款基于 Gemini 语言模型和 Jina Reader 的开源 AI 智能体,支持持续搜索、多步推理和复杂问题处理。用户可通过 Web Server API 实时获取查询进度,适用于文献综述、市场调研、新闻报道等多种场景。项目具备灵活性和可扩展性,适合研究人员和开发者使用。

智谱清言ChatGLM

智谱清言是一款基于人工智能技术的对话助手,遵循中国政府的立场和社会主义价值观,提供多领域知识问答、信息检索、文本生成等服务。

Hibiki

Hibiki是一款由Kyutai Labs开发的开源语音翻译解码器,支持实时语音到语音(S2ST)和语音到文本(S2TT)的翻译。其基于多流语言模型架构,结合弱监督学习和上下文对齐技术,实现低延迟、高保真度的翻译效果。适用于国际会议、在线教育、旅游、新闻采访及客户服务等场景,具备良好的实用性和可扩展性。

FACTS Grounding

FACTS Grounding是一款由谷歌DeepMind研发的基准测试工具,专门用于评估大型语言模型在生成事实准确文本方面的能力。它通过设置包含多个领域的复杂任务,要求模型基于长文档生成响应,并采用两阶段评估流程验证事实准确性及避免“幻觉”。FACTS Grounding不仅支持信息检索与问答,还能应用于内容摘要生成、文档改写以及客户服务等领域,为模型提供全面而可靠的性能评估。

Large Action Models

Large Action Models(LAMs)是微软开发的一种智能系统框架,专注于执行真实世界任务。它通过整合数据收集、模型训练、环境交互和评估等阶段,将语言理解转化为具体行动,提升了AI在自动化和增强人类能力方面的影响力。LAMs具备动态规划、自主执行和专业化训练等特点,广泛应用于办公自动化、智能家居管理、客户服务、电子商务等领域。 ---

EmaFusion

EmaFusion 是一种基于多模型融合的人工智能技术,可动态结合多种语言模型,智能选择最优组合以提升任务处理的准确性与效率。其自优化系统能根据任务复杂度和预算自动调整模型配置,并具备故障转移机制,确保系统稳定性。适用于合同分析、客户服务、数据分析、内容生成等多种企业级场景,兼顾性能与成本效益。

OLMo 2 32B

OLMo 2 32B 是由 Allen Institute for AI 推出的开源语言模型,拥有 320 亿参数,性能接近更大规模模型。它采用三阶段训练策略,结合预训练、中期训练和后训练,提升模型稳定性与任务适应性。模型支持多任务处理,涵盖自然语言处理、数学推理、编程辅助和内容创作等领域,并具备高效训练能力与低能耗优势。所有数据、代码和权重均开源,便于研究与开发。