【ZiDongHua 之“驾驶自动化”栏目标注“第一对焦“、“自动对焦”关键词: 鉴智机器人 自动驾驶 机器人 数字孪生 传感器 智能驾驶
  

  四维图新创想大会丨 鉴智机器人都大龙:规模化智驾量产×高效AI数据基座,驱动智能运载体系加速进化

  PhiGent News:
  
  10月28日,2025四维图新Evolution创想大会在北京举办,以“AI与汽车智能化的交织创想”为主题的共话场LIVE同期举办。鉴智机器人联合创始人&CTO都大龙博士受邀出席并发表演讲《规模化智驾量产×高效AI数据基座,驱动智能运载体系加速进化》。
  
  都大龙博士系统阐述了鉴智机器人以“高效AI数据闭环”为核心驱动智能运载体系进化的路径。他提出,在端到端AI范式下,智能驾驶正从“感知智能”经“行为智能”迈向“通用智能”。
  
  鉴智机器人已经推出了覆盖“极致性价比”与“极致体验”的PhiGo AD产品矩阵,均获得了头部主机厂的量产定点。在规模化量产中,基于海量的量产数据,重构以“认知学习”为中心的AI数据闭环是当下阶段的关键。
  
  都大龙博士重点介绍了鉴智机器人最新研发的「OmniNWM全知世界模型」,这是业界领先的全景、多模态、带精确控制与内在奖励的驾驶导航世界模型,目标是将整个数据闭环全栈AI化。他指出,通过规模化L2量产获取海量数据,并利用AI数据基座反哺和加速L4级智能运载平台的进化,将助力高等级自动驾驶生态的跨越式发展。
 
  
  01 产业背景:自动驾驶正突破奇点
  
  都大龙博士开宗明义地指出,在端到端AI算法范式下,随着乘用车海量数据和芯片算力的成倍提升,自动驾驶行业即将产生质变:2025年,“点到点”的功能已经实现落地;到2026年,行业将正式迈向“L4级别”自动驾驶,从单点能力突破,走向系统智能的临界奇点。
  
  实现更大范围、更高级别自动驾驶的前提,在于当前L2级辅助驾驶的规模化普及,“功能层面,如ACC、LCC等功能正在趋同收敛;性能要求层面,国家强标也在不断规范。”
  
  L2级辅助驾驶功能与性能的标准化,直接推动了其规模化量产,而量产过程中会产生海量、高质量、覆盖全面且分布合理的真实驾驶数据,这些数据成为驱动端到端 AI 快速进化的核心动力,同时也为更高阶的 L4 自动驾驶生态(如Robotaxi、末端配送、干线运输等)提供数据支撑,实现 “L2 数据反哺 L4 智能运载体系” 的良性循环,并最终爆发出指数级别的价值提升。
 
  
  02 产品实践:以极致体验为主线,以极致性价比放量,以标准化复制
  
  为顺应 L2 规模化发展需求,鉴智机器人推出两款标杆性产品,分别聚焦 “极致性价比” 与 “极致体验”,并实现「以极致体验为主线,以极致性价比放量,以标准化复制」的产品闭环。
  
  极致性价比层面,鉴智面向“智驾全面普惠”打造了“中阶标配最优解”PhiGo Pro「7V鱼眼@J6E」高速领航组合辅助驾驶方案。以极致的硬件配置成本,实现了包括高速领航、行泊一体、城区LCC+、记忆行车、主动安全在内的主流辅助驾驶功能全覆盖;该方案基于被动式散热,无需水冷风冷,支持“油电同智”;目前,电、油车型均实现J6E平台市场首发量产,并已在不同主机厂、不同动力形式的车型上实现了规模复制化交付。
  
  极致体验层面,鉴智面向“智驾终局”打造了“未来通用解”PhiGo Max端到端全域城区领航方案。该方案基于多模态认知推理和世界模型预测推演的一段式端到端范式,搭载于两颗高性能旗舰算力芯片,总算力超1000Tops,预留了通往L3级的升级空间。目前该方案已获得头部新势力主机厂的量产定点,双方正在深度联合开发,首发车型将于2026年中正式量产面市。
 
 
  基于多模态认知推理和世界模型预测推演的一段式端到端范式
  
  03 技术基座:OmniNWM,突破三维驾驶仿真极限的“全知”世界模型
  
  基于规模化量产数据,面向更高等级的自动驾驶演进趋势,鉴智机器人将以“认知学习”为中心,重构基于全栈AI的高效数据闭环体系。
  
  过去的自动驾驶学习更多是“开环模仿学习”——收集金牌司机的数据,努力模仿其行为,但“知其然,不知其所以然”。而要让AI真正“学会思考”,必须转向 “闭环强化学习” ,即能与物理/仿真环境数据进行真实地交互、推理和预测。都大龙博士正式发布了鉴智机器人未来的“创新引擎”——突破三维驾驶仿真极限的“全知”世界模型OmniNWM,这是业界领先的全景、多模态、带精确控制与内在奖励的驾驶导航世界模型。它如同一个高拟真度的“数字孪生世界”,让AI智能体可以安全地在其间无限次地交互、试错和学习。
  
  具体而言:
  
  (a) 根据参考图像和输入轨迹,OmniNWM可联合生成全面的多模态输出,包括全景RGB、语义、深度和3D Occupancy视频。
  
   (b) 以不同的输入轨迹为条件,OmniNWM 通过将其转换为归一化的Plücker Ray-map作为像素级指导,促进精确的全景相机控制。 
  
  (c) OmniNWM 可通过闭环管线实现超过GT长度的长期导航:规划轨迹指导多模态生成,而密集奖励则来自生成的3D Occupancy。
  
  OmniNWM:突破三维驾驶仿真极限的“全知”世界模型
  
  世界模型作为真实世界运行规律的“归纳器”,除服务于闭环学习与仿真评测,还在视角泛化、资产插入、数字孪生等多个场景应用中发挥实际作用。
  
  1)通过数据迁移/泛化,可有效提升模型性能。世界模型可将实际采集的原始轿车传感器数据合成适配为SUV等不同车型的数据(解决不同车型车道线在图像中位置差异等问题),从而保障算法在不同车型上的快速适配和性能效果。在实验中,利用视角泛化合成 1:1 的数据,性能(mAP)相对提升约27%。
  
  2)通过难例样本生成,有效解决corner Case问题。在现实世界中,诸如三角牌、夜间闪烁的工程车箭头、一直压线的锥筒等难例场景采集数据不足,世界模型可以快速生成现实中无法测试的场景,在仿真环境中完成安全、海量的评测,从而针对Corner Case进行针对性的提升。在实验中,对于三角牌等稀有类别的检测,添加AIGC数据后AP提升约20%。
  
  3)World Model实现数据可控生成。在世界模型中输入特定条件(如白天/夜晚、结构化场景描述),可快速生成可控且逼真的数据,提升数据泛化能力,助力模型适应多样环境。世界模型应用-多视角防撞桶资产插入
  
  04 未来展望:构建全面AI化的数据闭环体系,驱动智能运载体系加速进化
  
  “我们希望构建一个全面AI化与自演化的数据闭环体系,这就是未来发展的方向。”都大龙博士最后总结道,“自动驾驶是物理 AI 演化的起点,而全面 AI 化的数据闭环体系,直接决定了智能驾驶进化发展的高度与速度。这个体系的一端,连接着真实世界产生的海量数据;另一端,连接着车端不断进化的AI Agent,形成虚实融合的自学习系统。以‘规模化智驾量产’和‘高效AI数据基座’带来的乘积效应,将驱动智能运载体系加速进化跃迁。”