训练

Ezindie

独立开发者变现周刊,让小产品的变现更简单,一个专注于分享独立开发者如何创造和变现其产品的周更内容,提供关于独立开发产品如何实现商业成功的案例和故事。

CDial

CDial-GPT是一项由清华大学研发的基于大型中文对话数据集LCCC的预训练对话生成模型。该模型提供LCCC-base和LCCC-large两个版本的数据集,并具备预训练、微调、多模态学习等功能,能够生成高质量的对话回应。其应用场景涵盖客户服务、智能助手、在线教育等多个领域。

孟子大模型

孟子大模型作为澜舟科技的核心产品之一,展现了公司在认知智能领域的技术实力和创新能力。通过其强大的语言处理和多模态数据处理能力,孟子大模型为不同行业提供了灵活、高效的解...

Absolute Zero

Absolute Zero是由清华大学LeapLab团队联合多家机构研发的新型语言模型推理训练方法,采用自我生成任务并自主解决的机制,实现无需人工标注数据的自我进化学习。模型通过与环境交互获取反馈,持续优化推理能力,支持归纳、演绎和溯因等多种推理模式。其核心在于推动模型从依赖人类监督转向环境反馈驱动,具备跨领域泛化能力和零数据训练特性,适用于通用人工智能、代码生成、数学推理等多个应用场景。

HMA

HMA(Heterogeneous Masked Autoregression)是一种基于异构预训练和掩码自回归技术的机器人动作视频建模方法,支持离散与连续生成模式,可处理不同动作空间的异构性。该工具具备高效实时交互能力,广泛应用于视频模拟、策略评估、合成数据生成及模仿学习等领域,适用于机器人学习与控制任务,提升策略泛化与执行效率。

Diff

Diff-Instruct是一种基于积分Kullback-Leibler散度的知识迁移方法,用于从预训练扩散模型中提取知识并指导生成模型的训练。它能够在无需额外数据的情况下,通过最小化IKL散度提升生成模型的性能。Diff-Instruct适用于多种场景,包括预训练扩散模型的蒸馏、现有GAN模型的优化以及视频生成等。

RAGEN

RAGEN是一款开源的强化学习框架,专为在交互式和随机环境中训练大型语言模型(LLM)推理代理而设计。它基于StarPO架构,支持多轮轨迹优化和多种强化学习算法,如PPO和GRPO。通过MDP形式化和渐进式奖励归一化策略,RAGEN提高了训练的稳定性和效率。其模块化设计支持多种环境,适用于智能对话、游戏AI、自动化推理等多个领域。

OmniSQL

OmniSQL 是一款开源的文本到 SQL 转换工具,能将自然语言问题精准转化为 SQL 查询语句。它基于大规模数据集 SynSQL-2.5M 进行训练,涵盖 250 万条样本,覆盖 16,000 余个跨领域数据库。支持多种复杂查询类型,提供思维链推理过程,并提供 7B、14B 和 32B 三种模型版本。适用于企业数据分析、教育及跨领域应用,提升数据访问效率与学习体验。