深度学习

3DTown

3DTown是由哥伦比亚大学联合Cybever AI等机构开发的AI工具,能够从单张俯视图生成高精度的3D城镇场景。它采用区域化生成和空间感知3D修复技术,将输入图像分解为重叠区域,分别生成3D内容并修复缺失结构,确保几何和纹理一致性。支持多种风格的场景生成,适用于虚拟世界构建、游戏开发、机器人模拟等领域,优于现有方法。

UltraMem

UltraMem是字节跳动推出的超稀疏模型架构,通过优化内存访问和计算效率,显著降低推理成本并提升速度。其核心技术包括多层结构改进、TDQKR和IVE,使模型在保持性能的同时具备更强的扩展性。适用于实时推理、大规模模型部署及多个行业场景。

ConceptMaster

ConceptMaster是一款基于扩散Transformer模型的多概念视频生成框架,可在无需测试调优的情况下生成高质量、概念一致的视频。通过解耦多概念嵌入并独立注入模型,有效解决身份解耦问题,尤其擅长处理高度相似的视觉概念。该工具支持多概念视频定制、高质量数据收集和全面的基准测试,适用于视频创作、动画制作、游戏开发及产品展示等领域。

Midjourney V7

Midjourney V7 是一款基于深度学习的 AI 图像生成工具,具备草稿模式、语音交互、实时编辑等功能,显著提升生成速度与图像质量。其支持个性化配置,可根据用户偏好优化输出结果,适用于艺术、设计、娱乐等多个领域。系统采用先进神经网络技术,实现文本到图像的精准转换,并提供多种运行模式以满足不同需求。

AlphaQubit

AlphaQubit是一款由谷歌推出的基于人工智能的量子错误解码工具,主要功能包括错误识别与纠正、基于AI的解码、性能优化以及泛化能力提升。它采用量子纠错码(如表面码)、神经网络架构(Transformer)及软读出技术,通过一致性检查与实验数据微调,实现对量子比特状态的高精度预测与校正。AlphaQubit可广泛应用于量子计算机开发、药物发现、材料设计、密码学及优化问题解决等场景。

HumanDiT

HumanDiT是一种由浙江大学与字节跳动联合开发的高保真人体视频生成框架,基于扩散变换器(DiT)实现姿态引导的视频生成。它支持长序列、多分辨率视频生成,并通过关键点扩散变换器(Keypoint-DiT)确保动作的连贯性与自然性。引入前缀潜在参考策略以保持个性化特征,结合姿态适配器和细化模块提升细节质量。适用于虚拟人、动画制作、沉浸式体验及视频续写等多种场景。

AIGCPanel

AIGCPanel是一款开源的AI数字人系统,支持视频合成、声音合成与声音克隆等功能。它利用自然语言处理、计算机视觉技术和深度学习算法,实现高质量的音视频同步和自然语音生成。系统具有多语言支持、模型管理和日志查看功能,可应用于影视制作、虚拟主播、教育培训等多个领域。

Mellum

Mellum 是 JetBrains 推出的一款专为开发者设计的大型语言模型(LLM),通过深度集成 JetBrains IDE,提供低延迟、高精度的代码补全服务,支持多种编程语言,显著提升开发效率。其训练数据仅限于公开可用且许可宽松的代码,保障用户隐私。

Veo

Veo是Google DeepMind开发的一款视频生成模型,用户可以通过文本、图像或视频提示来指导其生成所需的视频内容。Veo具备深入的自然语言理解能力,能够准确解析用户的文本提示,生成高质量、高分辨率的视频。其主要功能包括高分辨率视频输出、自然语言处理、风格适应性、创意控制与定制、遮罩编辑功能、参考图像与风格应用、视频片段的剪辑与扩展以及视觉连贯性。Veo技术目前仍处于实验阶段,但已在电影制作