模型

Aya Vision

Aya Vision 是 Cohere 推出的多模态、多语言视觉模型,支持 23 种语言,具备图像描述生成、视觉问答、文本翻译和多语言摘要生成等能力。采用模块化架构与合成标注技术,确保在资源有限条件下仍具高效表现。适用于教育、内容创作、辅助工具开发及多语言交流等多个场景,具有广泛的实用价值。

DeepEyes

DeepEyes是由小红书团队和西安交通大学联合开发的多模态深度思考模型,基于端到端强化学习实现“用图思考”能力,无需依赖监督微调。它在推理过程中动态调用图像工具,增强对细节的感知与理解,在视觉推理基准测试V* Bench上准确率高达90.1%。具备图像定位、幻觉缓解、多模态推理和动态工具调用等功能,适用于教育、医疗、交通、安防和工业等多个领域。

4EVERChat

一个多功能聊天平台,支持不少先进的AI模型。用户能按需挑选,还能同时和多个模型交流。它很注重隐私,能保障用户数据安全。

Granite 4.0 Tiny Preview

Granite 4.0 Tiny Preview是IBM推出的轻量级语言模型,具备高效计算能力和紧凑结构,支持在消费级GPU上运行多个长上下文任务。采用混合Mamba-2/Transformer架构,结合高效与精准优势,支持无位置编码(NoPE)处理128K tokens上下文。内存需求降低72%,推理时仅激活1B参数,适用于边缘设备部署、长文本分析及企业级应用开发,适合资源受限环境下的AI研究与

Cerebellum

Cerebellum是一款结合Claude 3.5 Sonnet与Selenium WebDriver的智能化浏览器助手,通过构建网页浏览的有向图模型,利用LLM技术分析页面内容和交互元素,智能规划操作路径并动态调整策略。它支持多浏览器操作,可精确模拟用户行为,广泛应用于网页自动化测试、数据抓取、内容管理及电子商务等多个领域。

AingDesk

AingDesk 是一款开源的 AI 模型部署工具,支持一键安装上百款 AI 模型,降低使用门槛。具备联网搜索功能,提升回答准确性;提供模型共享与多语言支持,便于团队协作与跨语言使用。内置模型管理器,优化本地资源利用,适用于学习、办公及学术研究等多种场景。

EMO2

EMO2是一种由阿里巴巴智能计算研究院开发的音频驱动头像视频生成技术,通过音频输入和静态人像照片生成高质量、富有表现力的动态视频。其核心技术包括音频与手部动作的协同建模、扩散模型生成视频帧,以及高精度音频同步。该工具支持多样化动作生成,适用于虚拟现实、动画制作和跨语言内容创作等场景,具备自然流畅的视觉效果和丰富的应用场景。

OpenAI o1模型

OpenAI的最新推理系列AI大模型“Strawberry”,包括“o1-preview”和成本较低的“o1 mini”版本。该模型通过强化学习训练,具备复杂的推理能力和多模态理解能力。它采用了“思维链”机制,增强推理透明度,具备自我纠错功能。在国际数学奥林匹克等基准测试中表现出色,展现出强大的性能。设计时考虑了安全性、可靠性和成本效率。 ---

硅基流动

SiliconCloud 是硅基流动推出的一站式大模型云服务平台。

Diffusion Self

Diffusion Self-Distillation (DSD) 是一种基于预训练文本到图像扩散模型的零样本定制图像生成技术,通过自动生成数据集并微调模型,支持文本条件下的图像到图像转换任务。其核心在于利用生成图像网格与视觉语言模型筛选高质量配对数据集,实现无需人工干预的身份保持定制化图像生成。该技术广泛应用于艺术创作、游戏开发、影视制作、广告营销及个性化商品等领域。