强化学习

KuaiMod

KuaiMod 是快手开发的多模态大模型内容审核系统,能高效识别和过滤有害及低质量视频。它结合视觉语言模型(VLM)和链式推理(CoT)技术,支持动态策略更新和强化学习,提升审核准确性。系统在离线测试中准确率达92.4%,有效降低用户举报率,优化推荐体验,助力平台内容生态健康发展。

Agent Q

Agent Q是一种自监督代理推理和搜索框架,结合了引导式蒙特卡洛树搜索(MCTS)、AI自我批评及直接偏好优化(DPO)等技术。该框架通过迭代微调和基于人类反馈的强化学习进行自我改进,在网页导航和多步任务执行中表现优异。Agent Q的主要功能包括引导式搜索、自我批评、迭代微调、多步推理任务和零样本学习。它在电子商务、在线预订服务、软件开发、客户服务、数据分析和个性化推荐等领域具有广泛应用前景。

Gemini 2.5 Pro (I/O 版)

Gemini 2.5 Pro (I/O 版) 是 Google 推出的多模态 AI 模型,具备强大的编程能力和多模态内容生成功能。它能基于提示词或手绘草图快速生成交互式 Web 应用、游戏及模拟程序,并支持代码生成、编辑与优化。该模型在多个基准测试中表现优异,适用于 Web 开发、游戏制作、教育工具构建及企业级应用开发等领域。最新版本进一步提升了性能与灵活性。

TÜLU 3

TÜLU 3是艾伦人工智能研究所发布的开源指令遵循模型,提供8B、70B及未来的405B版本。它通过后训练技术显著提升了模型在数学、编程和推理等方面的表现,同时支持多种任务处理和创新的后训练方法,适用于自然语言处理、教育、编程开发及内容创作等多个领域。

RLCM

RLCM是由康奈尔大学开发的一种基于强化学习的文本到图像生成框架,通过微调一致性模型以适应特定任务的奖励函数,显著提升生成效率与图像质量。其核心技术包括强化学习、策略梯度优化及任务导向的奖励机制,适用于艺术创作、数据集扩展、图像修复等多个领域,具有高效的推理能力和对复杂任务的适应性。

k0

k0-math是一款基于强化学习和思维链推理技术的新一代数学推理模型,由月之暗面推出。它在多个数学基准测试中表现出色,特别是在中考、高考、考研及竞赛级数学题库中的成绩超越了OpenAI的o1-mini和o1-preview模型。k0-math具备深入思考、规划解题思路以及自我反思优化的能力,适用于教育辅导、在线教育平台、竞赛培训、学术研究及自动化测试与评分等多个场景。

PaSa

PaSa是由字节跳动研发的基于强化学习的学术论文检索系统,能够模仿人类研究者行为,自动调用搜索引擎、分析论文内容并追踪引文网络,提供精准全面的学术文献检索服务。其核心技术包括Crawler和Selector两个智能体,结合强化学习优化,显著提升了搜索效率与准确率。PaSa适用于学术研究、高校教学、知识产权分析等多个领域,具备高效检索和复杂查询处理能力。

PRefLexOR

PRefLexOR是由MIT开发的一种基于偏好优化和递归推理的自学习AI框架,能通过多步推理、反思和优化提升输出准确性。其核心技术包括ORPO和DPO,结合“思考令牌”与“反思令牌”实现更精准的推理路径对齐。具备动态知识图谱构建、跨领域推理和自主学习能力,适用于材料科学、信息学等复杂场景,支持开放域问题解决和持续优化。

DeepSeek R1

DeepSeek R1-Zero 是一款基于纯强化学习训练的推理模型,无需监督微调即可实现高效推理。在 AIME 2024 竞赛中 Pass@1 分数达到 71.0%,展现强大逻辑与数学推理能力。支持长上下文处理,具备自我进化、多任务泛化等特性,并通过开源和蒸馏技术推动模型应用与优化。