模型

YAYI

YAYI-Ultra是中科闻歌研发的企业级大语言模型,具备多领域专业能力与多模态内容生成能力,支持数学、代码、金融、中医等领域。模型支持超长文本处理、数据分析、任务规划及联网创作,适用于媒体、医疗、财税等行业。采用混合专家架构,结合指令微调技术,在多项评测中表现优异,提供高效、精准的智能化服务。

APB

APB是一种由清华大学等机构开发的分布式长上下文推理框架,通过稀疏注意力机制和序列并行推理提升大模型处理长文本的效率。采用更小的Anchor Block和Passing Block,结合查询感知的上下文压缩技术,减少计算开销并精准传递关键信息。在128K长度文本上,APB推理速度比Flash Attention快10倍,比Star Attention快1.6倍,适用于多种分布式环境和模型规模,广泛

UI

UI-TARS是由字节跳动开发的图形用户界面代理模型,支持通过自然语言实现桌面、移动端和网页的自动化交互。具备多模态感知、跨平台操作、视觉识别、任务规划与记忆管理等功能,适用于自动化任务执行和复杂交互场景。支持云端与本地部署,提供丰富的开发接口,便于集成与扩展。

OmniVision

OmniVision是一款面向边缘设备的紧凑型多模态AI模型,参数量为968M。它基于LLaVA架构优化,能够处理视觉与文本输入,显著降低计算延迟和成本。OmniVision支持视觉问答、图像描述等功能,广泛应用于内容审核、智能助手、视觉搜索等领域。

混元3D v2.5

混元3D v2.5是腾讯推出的高精度3D生成模型,具备超高清建模能力,支持4K纹理和多视图输入,生成更真实的PBR材质模型。其优化的骨骼蒙皮系统提升动画效率,适用于游戏开发、影视制作、电商展示等多个领域,提供多样化的生成模板和参数调节功能,满足专业级3D内容创作需求。

PixArt

PixArt-Σ是一款基于扩散Transformer架构(DiT)的文本生成图像模型,专为生成高达4K分辨率的高质量图像而设计。该模型通过整合高级元素并采用从弱到强的训练方法,不仅提升了生成图像的保真度,还增强了图像与文本提示之间的对齐效果。PixArt-Σ的生成图像在美学质量上可媲美当前顶级的文本到图像产品,并且在遵循文本提示方面表现出色。主要功能包括4K分辨率图像生成、高保真转换、高效率训练和

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。

Mind GPT

Mind GPT-3o是一款由理想汽车推出的大规模多模态端到端人工智能模型,集成了语音、视觉与语言理解技术,具备记忆、规划、工具集成及表达能力。它不仅能理解复杂信息,还能提供个性化服务,如智能驾驶辅助、家居设备控制、日程管理和健康咨询等。通过强化逻辑推理与上下文理解,该模型实现了从感知到表达的智能化跨越,为用户提供全面的支持。

sCM

sCM是一种由OpenAI开发的基于扩散模型的连续时间一致性模型,通过简化理论框架与优化采样流程,实现了图像生成速度的大幅提升。该模型仅需两步采样即可生成高质量图像,且速度比传统扩散模型快50倍。得益于连续时间框架和多项技术改进,sCM不仅提高了训练稳定性,还提升了生成质量。其应用场景广泛,包括视频生成、3D建模、音频处理及跨媒介内容创作,适用于艺术设计、游戏开发、影视制作等多个行业。

o3

o3-pro 是 OpenAI 开发的高级推理模型,继承并优化了 o3 的功能,在复杂问题解决和精确答案提供上表现出色。它集成了 ChatGPT 的多种工具,如网页搜索、文件分析、图像推理和编程等,适合科学研究、编程、教育和写作等领域。尽管响应速度稍慢,但在表达清晰度、逻辑准确性和答案完整性方面表现优异,并在数学、科学和编程等领域的性能上超越了前代模型。