从看没看路到看见没看见危险-DMS正在进入ADAS协同时代

从“看没看路”到“看见没看见危险”:DMS 正在进入 ADAS 协同时代

关键词:driver awareness、hazard detection via gaze、Valeo Panovision、Seeing Machines、HUD、ADAS-DMS integration、Euro NCAP

一、下一阶段 DMS 的核心问题,已经不是“眼睛是否朝前”了

传统 DMS 最经典的问题是:

  • 是否闭眼
  • 是否打哈欠
  • 是否长时间视线离路
  • 是否头偏得太厉害

这些当然重要,也仍然是法规基础。

但它们有一个共同局限:

它们更像在判断“驾驶员有没有执行基本注意动作”,却不一定能判断“驾驶员是否真的意识到了风险”。

现实驾驶里,很多危险并不是因为驾驶员一直看向别处,而是因为:

  • 眼睛扫过了危险,但没有真正处理
  • gaze 落点接近危险区域,但没有形成 hazard awareness
  • 复杂场景下信息过载,驾驶员“看见了但没意识到”

这正是 DMS 下一阶段最有价值的升级方向:

从 attention monitoring 走向 awareness monitoring。

Valeo 和 Seeing Machines 在 CES 2026 展示的路线,非常典型地体现了这个变化:

  • 不只是做 gaze tracking
  • 而是判断驾驶员是否已经识别到检测到的 hazard
  • 如果没有识别到,再通过 HUD 在对应区域进行强化提醒

这个变化看起来只是功能小升级,但本质上非常大。

因为它意味着 DMS 正在从“独立监测模块”走向“与 ADAS / HMI 联合闭环的感知中枢”。


二、为什么“看没看见危险”比“看没看路”更重要

1)很多事故不是纯 gaze-off-road 导致的

传统视觉分心很好理解:

  • 低头看手机
  • 长时间看侧面
  • 闭眼

但真实事故里还有大量更难的问题:

  • 驾驶员朝前看,却没意识到 cut-in 车辆
  • 视线扫过行人,却没形成有效反应
  • 复杂城市路口里注意被别的信息吸走
  • 眼睛在路上,但认知资源没落在关键 hazard 上

这类问题本质上不是“有没有看”,而是“有没有理解 / 识别”。

2)ADAS 越强,DMS 越需要理解 driver awareness

当 ADAS 系统能检测到:

  • 前方障碍
  • 行人
  • 横穿目标
  • 侧向来车
  • 潜在碰撞路径

单纯只知道驾驶员“视线朝前”已经不够了。

更有价值的问题会变成:

  • 驾驶员是否已经注意到这个 ADAS 发现的 hazard?
  • 如果没有,提醒应该投到哪里?
  • 这个提醒是重复信息,还是关键补强?

这就是 DMS 与 ADAS 融合后才真正成立的问题。

3)这类能力天然更接近“减少误报与无效提醒”

很多驾驶员反感 ADAS,不是因为没有价值,而是因为:

  • 提醒太多
  • 提醒位置不对
  • 提醒时机不对
  • 提醒的事情驾驶员其实早就知道了

如果系统能知道“驾驶员已经看到 hazard”,就可以减少无谓打扰。

反过来,如果系统知道“ADAS 看到了,但驾驶员没意识到”,提醒的价值就会大很多。

这才是真正人机协同的雏形。


三、Valeo + Seeing Machines 的方案,为什么值得单独研究

根据 Valeo 2026 年 1 月发布的材料,这套联合 ICMS 展示最值得关注的点不是传统 DMS,而是:

  • 通过 gaze tracking 判断驾驶员是否识别到了已检测的 hazard
  • 基于这一判断,Valeo Panovision HUD 给出自适应警示
  • 同时还展示:
    • multi-layer interior monitoring
    • helmet detection for 2-wheelers
    • 多 SoC 平台部署能力

Repairer Driven News 的报道进一步补充了 Panovision 的机制:

  • 如果系统判断驾驶员尚未发现危险
  • 就会在 HUD 上把警示投射到相关区域
  • 目的是做“即时且直觉化的 awareness 补强”

这其实已经不是传统 DMS,而是一种:

ADAS 感知结果 × 驾驶员 gaze 理解 × HMI 精准投放

的闭环方案。

从系统角度看,它至少包含三层:

第一层:外部世界风险感知

  • ADAS 检测 hazard
  • 判断风险优先级

第二层:驾驶员 awareness 估计

  • gaze 是否覆盖危险相关区域
  • gaze 停留 / 扫视模式是否表明已识别
  • 当前驾驶员是否存在 inattention / overload

第三层:交互与干预

  • 是否发出提示
  • 在哪里提示
  • 提示强度如何
  • 是否需要进一步升级干预

这比“DMS 发现走神 -> 嘀一声”高级了一个层级。


四、这条路线对 IMS / DMS 的真正意义

1)DMS 不再只是做状态分类,而要开始做“风险关联解释”

传统 DMS 输出通常是:

  • drowsy
  • distracted
  • attentive

而下一阶段更有价值的输出可能是:

  • driver_has_seen_hazard
  • hazard_acknowledgement_confidence
  • awareness_gap_score
  • time_to_acknowledge
  • recommended_warning_level

也就是说,DMS 需要开始对“驾驶员与具体外部风险之间的关系”做建模。

2)DMS 与 ADAS 的接口定义会变得关键

如果要做 hazard-aware monitoring,就必须打通:

  • 外部感知给 DMS 的目标信息
  • DMS 给 HMI / ADAS 的 awareness 反馈
  • 事件时间同步
  • 空间坐标映射

这本质上要求:

  • gaze in cabin 坐标系
  • HUD / windshield 投影坐标系
  • ADAS target world coordinates

之间建立更稳定的映射链路。

这已经不再是单模块优化,而是跨域系统工程。

3)它天然要求更高 fidelity 的 gaze 估计

如果系统要判断“驾驶员是否看到某个特定 hazard”,那 gaze tracking 的要求会比传统 DMS 更高:

  • 精度要更高
  • 延迟要更低
  • 与头姿/视线落点要联合建模
  • 遮挡、眼镜、光照变化下仍要稳定

否则就很容易:

  • 驾驶员看到了,系统以为没看到
  • 驾驶员没看到,系统却以为看到了

这会直接破坏整个闭环价值。


五、对 IMS 开发最直接的启示

启示 1:未来 DMS 输出不要只给“attention level”,要开始给“awareness state”

建议未来状态输出层预留:

  • hazard_attention_overlap
  • awareness_confidence
  • acknowledgement_delay
  • competing_attention_sources
  • driver_overload_risk

这些状态更适合和 ADAS 联动,而不是只有一个 distracted flag。

启示 2:要重视 gaze 与外部目标映射能力

如果没有稳定的 gaze-to-hazard mapping,就谈不上 hazard-aware DMS。

需要重点攻克:

  • 车内相机与驾驶员视线模型标定
  • gaze 落点映射到路面/目标 ROI
  • HUD 区域与视线区域统一
  • 时间对齐与运动补偿

启示 3:要区分“看见了”和“理解了”之间的差异

这是最难但也最有价值的地方。

短暂停留 gaze 不一定代表真正识别到了 hazard。

所以未来可能要结合:

  • gaze dwell time
  • revisit pattern
  • scanpath context
  • head-eye coordination
  • risk scene complexity
  • cognitive load features

来估计真正的 awareness。

启示 4:HMI 设计必须和 DMS 一起做,而不是后接一个普通提示框

如果要做自适应提醒,提示的:

  • 位置
  • 形态
  • 时机
  • 强度

都必须与 gaze / awareness 模型耦合设计。

Valeo Panovision 这个案例最有价值的地方,正是它不是独立 DMS,也不是独立 HUD,而是把两者绑在一起做。

启示 5:这是 DMS 与 ADAS 协同的天然切入口

相比直接做复杂“认知理解”,hazard-aware gaze 其实是一个很好的切入口,因为:

  • 外部 hazard 已有 ADAS 提供
  • DMS 已有 gaze tracking 能力
  • HMI 已有 HUD / cluster 显示出口

只要三者打通,就能形成一个很清晰的产品价值闭环。


六、建议的优先级排序

P0:应立即预研

  1. 定义 hazard-aware DMS 的状态输出接口
  2. 建立 gaze 与外部目标 ROI 的离线映射验证
  3. 评估 awareness estimation 的时延与误差容忍度
  4. 设计 HUD / cluster 的自适应提醒逻辑

P1:近期推进

  1. 联调 DMS 与 ADAS 目标流
  2. 建立“驾驶员已识别 / 未识别危险”的标注方法
  3. 验证不同场景下 gaze-based acknowledgement 的可靠性
  4. 引入复杂路口、弱目标、遮挡等边界场景

P2:中期产品化

  1. 将 awareness monitoring 纳入 DMS 主功能栈
  2. 和 MRM / unresponsive driver intervention 结合
  3. 扩展到两轮车、HUD、全景挡风显示等新 HMI 形态
  4. 面向 Euro NCAP 后续协议建立高保真 driver awareness 能力

七、路线判断:下一阶段 DMS 竞争,不只是“能不能看住司机”,而是“能不能补上司机没意识到的危险”

如果说前一阶段 DMS 的价值在于:

  • 防止疲劳
  • 防止明显分心
  • 满足法规底线

那么下一阶段更有价值的方向会是:

  • 判断 driver awareness 是否完整
  • 与外部风险实时对齐
  • 让提醒更精准、更少打扰
  • 把 DMS 真正纳入 ADAS 安全闭环

这类能力一旦做好,DMS 的角色就会从“驾驶员监督器”升级成“人机协同桥梁”。

这也是我认为 Valeo + Seeing Machines 这条线值得重点盯的原因:

它展示的不是又一个 DMS feature,而是 DMS 下一阶段的系统形态。


八、结论

DMS 的未来不只是判断驾驶员有没有看路,而是更进一步:

车辆已经看见危险时,驾驶员是否也真正看见并理解了这个危险?

这个问题一旦成立,DMS、ADAS、HUD、HMI 就不再是分立模块,而会越来越像一个联合系统。

从工程角度看,这条路线要求:

  • 更高 fidelity 的 gaze
  • 更稳的舱内外目标映射
  • awareness 而非简单 attention 的建模
  • 与 HMI 的精准联动

它更难,但也更接近真正的人机协同安全。

所以我会把这条线视为:DMS 进入 ADAS 协同时代的标志性方向。


参考资料

  1. Valeo, Safety-Enhancing Advanced Monitoring Applications Powered by Seeing Machines at CES 2026, 2026-01-05
  2. Anyverse, In-Cabin Monitoring at CES 2026: From Driver Monitoring to Agentic Cabin Intelligence, 2026-01
  3. Repairer Driven News, Panovision vehicle display that tracks driver’s gaze showcased at CES, 2026-01-06

从看没看路到看见没看见危险-DMS正在进入ADAS协同时代
https://dapalm.com/2026/03/18/2026-03-18-从看没看路到看见没看见危险-DMS正在进入ADAS协同时代/
作者
Mars
发布于
2026年3月18日
许可协议