AI项目与工具

TheoremExplainAgent

TheoremExplainAgent(TEA)是一款基于多模态技术的AI工具,可生成超过5分钟的数学与科学定理解释视频,涵盖多个STEM领域。它结合文本、动画和语音,提升抽象概念的理解效果,并具备自动错误诊断功能。通过TheoremExplainBench基准评估,TEA在准确性、逻辑性和视觉表现上均表现优异,适用于在线教育、课堂教学和学术研究等多种场景。

NovaMSS

NovaMSS是一款基于AI技术的音乐源分离工具,可精准分离人声、伴奏、贝斯、鼓点等音轨。支持多种音频格式和批量处理,操作简便,适用于音乐制作、音频修复及教学资源开发等多种场景。提供普通与专业模型,满足不同用户的音质需求,适合创作者和音乐爱好者使用。

NightCafe

NightCafe是一款基于人工智能技术的在线艺术生成平台,支持用户通过文本描述或图片生成多样化的艺术作品。平台提供多种算法(如Stable Diffusion、DALL-E 2等),支持风格迁移与图像增强,并拥有活跃的社区功能,用户可分享作品、参与挑战及互动交流。此外,NightCafe还支持将艺术作品打印为实体形式。

VidSketch

VidSketch是由浙江大学研发的视频生成框架,支持通过手绘草图和文本提示生成高质量动画。它采用层级草图控制策略和时空注意力机制,提升视频连贯性和质量,适用于不同技能水平的用户。具备多样化风格支持和低门槛创作特点,广泛应用于创意设计、教学、广告及内容创作等领域。

腾讯混元T1

T1(Thinker)是腾讯混元推出的深度思考模型,支持逻辑推理与联网搜索,具备高速响应和长文本处理能力。采用Hybrid-Mamba-Transformer架构,提升推理效率与准确性。适用于教育、医疗、市场分析等多个领域,输出简洁、幻觉低,适合复杂指令处理和多任务场景。

DragAnything

DragAnything 是一款由快手与高校联合研发的视频生成工具,通过实体表示和轨迹输入实现对视频中物体的精确运动控制。它支持多实体独立操作、相机运动调整,并采用扩散模型生成高质量视频内容。具备用户友好的交互方式,适用于视频编辑、游戏开发、教育及广告等多个场景。

VideoPhy

VideoPhy是一款由UCLA和谷歌研究院联合开发的基准测试工具,旨在评估视频生成模型的物理常识能力。它包含688条描述性字幕,通过人类和自动评估方式,衡量生成视频是否符合物理规则。VideoPhy不仅揭示了现有模型的不足,还推出了自动评估工具VideoCon-Physics,以推动模型性能的提升。其应用场景广泛,包括视频生成模型开发、计算机视觉研究、教育与培训以及娱乐产业等。

UniAct

UniAct是一款面向具身智能的通用行为建模框架,旨在解决机器人行为异构性问题。通过向量量化构建通用动作空间,UniAct将不同机器人的原子行为统一表示,实现跨平台共享。其轻量架构(如0.5B模型)具备高效性能与快速适应能力,仅需少量数据即可微调,并通过异构解码器适配多种机器人。适用于自动驾驶、医疗、工业及家庭服务等多个领域,提供一致且高效的控制方案。

Videotoword.ai

Videotoword.ai 是一款以AI驱动的在线服务,支持将音频和视频文件转化为文本,具有高精度(99.9%)和多语言支持(98种以上)。它能处理长达10小时的文件,具备自动转录、文本编辑导出及AI摘要生成功能,广泛应用于教育、媒体、法律和企业等领域。

OpenVoice

OpenVoice是一款由MyShell开发的免费开源AI语音克隆工具,其主要功能包括精准的音色和音调克隆及灵活的语音风格控制。该工具能够捕捉并复制不同语言或口音的音色,生成自然流畅的语音,并支持零样本跨语言语音克隆。开发者可以通过GitHub项目地址进行本地安装和运行,也可以通过Lepton AI、MyShell或HuggingFace提供的在线演示体验该工具。