AI

Dolphin

Dolphin是由清华大学与海天瑞声联合开发的面向东方语言的语音识别大模型,支持40种语言及22种中文方言,具备高精度语音转文字能力。采用CTC-Attention架构,结合E-Branchformer和Transformer技术,提升识别效率与准确性。模型开源,支持自定义语言与地区设置,适用于会议记录、语音输入、智能助手等多种场景。

TokenVerse

TokenVerse 是一种基于扩散模型的多概念图像生成工具,支持从单图或多图中解耦并组合视觉元素,如物体、材质、姿势等。通过优化调制空间,实现对复杂概念的局部控制,无需微调模型即可生成个性化图像,适用于创意设计、艺术创作和内容生成等多种场景。

KYP.ai

KYP.ai的功能只要是通过工具识别可以通过自动化工具解决的障碍和低效,并向客户管理员提供建议。

Talefy Ai

AI互动故事生成器,Talefy Ai能够帮助用户轻松创作各种类型的互动故事,将脑海中的故事具象化,并提供沉浸式的故事体验。

Imagine Explainers

Imagine Explainers 是一款基于 AI 的视频生成工具,支持用户根据主题和时长快速生成高质量动画视频。提供多种模板、角色和风格选择,支持 AI 语音或自定义音频。适用于教育、商业、营销等多个领域,能够将复杂内容转化为直观的视觉表达,提升信息传达效率。

新榜小豆芽

原新榜编辑器,丰富的样式和模板、海量的在线图片搜索,一键同步多平台,还有大量爆文供你参考。

Dippy

Dippy 是一款基于 AI 技术的个性化伴侣平台,通过虚拟角色实现与用户的互动交流。其特色包括思维链技术,使用户能洞察 AI 回答的逻辑过程;同时支持用户自定义角色外观、情感陪伴、语言学习及任务管理等功能。Dippy 目前专注于 iOS 用户群体,致力于打造高度个性化且透明的 AI 交互体验。

方便面AI面试

AI面试工具是企业智能化招聘的解决方案,支持全球候选人通过微信小程序或浏览器参与结构化初筛面试。具备智能画像、语义分析、表情识别等功能,从能力适配度、文化匹配度和领导力潜质三方面评估候选人。支持多岗位、多语言、多时区接入,与主流招聘系统无缝对接,提升招聘效率与精准度,适用于全球化、校园、远程及中高端人才招聘场景。

Vid2World

Vid2World是由清华大学和重庆大学联合开发的创新框架,能够将全序列、非因果的被动视频扩散模型(VDM)转换为自回归、交互式、动作条件化的世界模型。该模型基于视频扩散因果化和因果动作引导两大核心技术,解决了传统VDM在因果生成和动作条件化方面的不足。Vid2World支持高保真视频生成、动作条件化、自回归生成和因果推理,适用于机器人操作、游戏模拟等复杂环境,具有广泛的应用前景。

sCM

sCM是一种由OpenAI开发的基于扩散模型的连续时间一致性模型,通过简化理论框架与优化采样流程,实现了图像生成速度的大幅提升。该模型仅需两步采样即可生成高质量图像,且速度比传统扩散模型快50倍。得益于连续时间框架和多项技术改进,sCM不仅提高了训练稳定性,还提升了生成质量。其应用场景广泛,包括视频生成、3D建模、音频处理及跨媒介内容创作,适用于艺术设计、游戏开发、影视制作等多个行业。