【ZiDongHua 之“会展赛培坛”收录关键词:无问芯穹 计算机视觉 机器学习 VALSE】
无问芯穹亮相VALSE 2025,助力高校科研项目算力自由,实验无忧!
2025年度视觉与学习青年学者研讨会(VALSE)于6月6日至8日在珠海国际会展中心成功召开,会议持续聚焦计算机视觉、模式识别、多媒体及机器学习等领域的国际前沿进展与研究热点。无问芯穹受邀出席“AI for Science:诺贝尔奖后的思考”专题研讨会,并由技术副总裁吴保东发表题为《面向大模型科学研究的算力平权技术探索》的主题演讲。报告从高校大模型应用场景的多样化需求切入,系统阐释了无问芯穹Infini-AI异构云平台(cloud.Infini-AI.com)如何通过兼容性突破、性能优化与稳定性保障,满足高校开发训练全流程需求,以弹性算力赋能科研创新。

当前,大模型技术已深度融入高校的科研探索、教学实践与应用开发全场景。然而,多元化的应用需求面临三个主要挑战:在基础设施层面,硬件投入成本居高不下且国产芯片适配困难,导致自有资源建设陷入“闲置与短缺并存”的困境;在模型训练与推理环节,存在训练周期冗长、推理首Token延迟高以及多机通信配置复杂等技术瓶颈;在平台使用层面,因缺乏高效工具链,研究人员常需应对环境反复重置和繁重运维负担,严重挤占有效科研时间,制约学术产出效率。
针对上述系统性挑战,无问芯穹Infini-AI异构云平台依托跨域异构云管平台、AIStudio一站式开发平台和GenStudio大模型服务平台三大核心能力,为高校构建了全场景适配的AI Native基础设施解决方案。
01跨域异构云管平台提供高效底层能力支持,让异构算力成为可用算力
针对高校AI落地“资源闲置与短缺并存”的核心矛盾,无问芯穹跨域异构云管平台面向高校提供底层的能力支持,实现多集群和集群内动态调度,让异构的算力成为可用的算力。将分散在各课题组的NVIDIA 4090/A100/H800及其他国产算力卡整合为统一资源池,实现小时级动态分配与反碎片化调度。同时支持单任务万卡级高性能网络互联,并配备容器级故障自愈机制,使集群资源利用率显著提升至92%,算力使用成本降低20%,从根本上解决了资源分散浪费、长周期训练容错缺失及多机网络性能不足等问题。平台的异构训推引擎Infini-ACC可以充分覆盖主流模型,广泛兼容各类硬件,并有效加速运行性能,实现模型存储、推理耗时及硬件能耗十倍降低。
该平台还集成了无问芯穹全球首创的第三代推理集群系统semi-PD,该推理系统结合了融合式实例的存储优势和分离式实例的计算优势,集二者之长处于一体,可同时应用于实例推理和集群推理场景。实例推理延时降低最高达5.6倍,推理性能居行业第一。
02AIStudio一站式开发平台全栈支持大模型高效敏捷开发,让可用算力成为好用算力
AIStudio一站式开发平台为高校提供全栈式开发支持,以更丰富和更灵活的功能和操作使高校模型资源配置更加便捷高效。当前高校资源使用场景大多存在成本高、运维难、使用不稳定的难题。而无问芯穹AIStudio一站式开发平台覆盖4090/A/H等全场景的弹性算力资源池,可以按需开机,响应即时需求,让高校用户彻底摆脱排队与抢卡困境。同时通过包月资源组实现组内显存、内存共享,促进高效协作。另外,平台内置的一键改配功能使单卡开发环境可无缝切换至多卡训练状态,实现资源成本与效率的最优平衡。预设模板支持点选式操作,大幅简化资源配置流程。在可靠性方面,训练全流程将嵌入断点续训机制(任务中断30分钟内自动恢复)、TensorBoard实时监控及GPU异常检测模块,显著提升有效训练时长,保障长周期科研任务的稳定可控。
03GenStudio大模型服务平台一站式解决文生文、生图高效服务,让好用算力成为普适算力
GenStudio大模型服务平台聚焦推理性能优化,以极致的推理加速能力一站式解决高校文生文、文生图等多模态服务需求。平台提供高性能推理加速API,资源充足,在文生文、文生图场景下都具有极致的推理性能。LLM最多较业界SOTA实现300%的性能提升,并在多种主流模型上实现90%以上的吞吐量提升;文生图场景下相同卡型相较主流开源组件,推理性能提升在2倍以上,定制化加速优化服务,最多帮助客户提升10倍生图速度。平台兼容90%以上ComfyUI主流节点和模型,无缝对接其他平台常见导出格式,可1分钟实现上传到调用。满足高校从算法研究、垂域训练到教学部署的全链条需求,真正实现“开箱即用”。
目前,无问芯穹的解决方案已在清华大学、北京大学、浙江大学等15+顶尖高校成功落地。未来,公司将持续推动全自主国产算力集群与全国一体化算力网络的技术突破,致力于破解高校算力瓶颈,推动AGI研究的普惠化发展,以实际行动践行“释放无穹算力,让AGI触手可及”的理念,成为支撑高校大模型科研创新的核心力量。






评论排行