Euro NCAP 2029 MED:从眼动追踪到有意义参与检测的演进

前言

Mobileye 在 2026 年 3 月宣布获得美系车企百万级 DMS 订单时,透露了一个关键信息:

Euro NCAP 2029 协议预计将从眼动追踪升级为有意义参与检测(Meaningful Engagement Detection, MED)。

这是 DMS 技术演进的下一个重大里程碑。


一、MED 的技术内涵

1.1 从”眼睛在哪里”到”是否在看该看的地方”

检测方式 眼动追踪(2026) 有意义参与检测(2029)
核心问题 驾驶员眼睛在哪里? 驾驶员是否在看该看的地方?
技术要求 眼动追踪 眼动 + 道路感知融合
上下文 结合道路环境
误报率 较高 更低
检测深度 视觉分心 认知分心(部分)

1.2 Mobileye 的技术路线

根据 Mobileye 官方说明:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
Mobileye DMS 技术架构:

┌─────────────────────────────────────────────┐
│ 舱内感知(DMS) │
│ ├─ 眼动追踪 │
│ ├─ 视线方向估计 │
│ └─ 驾驶员状态判断 │
├─────────────────────────────────────────────┤
│ 舱外感知(ADAS) │
│ ├─ 道路环境感知 │
│ ├─ 交通场景理解 │
│ └─ 危险区域识别 │
├─────────────────────────────────────────────┤
│ 融合判断(MED) │
│ ├─ 视线是否指向道路? │
│ ├─ 视线是否指向危险区域? │
│ └─ 驾驶员是否"有意义参与"? │
└─────────────────────────────────────────────┘

关键创新: 单芯片(EyeQ6L)同时运行 DMS + OMS + ADAS,无需独立 DMS ECU。


二、MED vs 传统 DMS

2.1 场景对比

场景 传统 DMS 响应 MED 响应
驾驶员看后视镜 ⚠️ 可能误报为分心 ✅ 识别为驾驶相关行为
驾驶员看仪表盘 ⚠️ 可能误报为分心 ✅ 识别为驾驶相关行为
驾驶员看手机 ❌ 检测为分心 ❌ 检测为分心
驾驶员看道路但认知分心 ❌ 无法检测 ⚠️ 部分检测(结合行为模式)

2.2 技术要求

维度 传统 DMS MED
传感器 舱内摄像头 舱内 + 舱外摄像头
算法 眼动追踪 眼动 + 场景理解 + 融合
计算资源 独立 ECU 或集成 与 ADAS 共享资源
数据需求 眼动数据 眼动 + 道路场景数据

三、开发落地方案

3.1 系统架构

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
# MED 概念架构
class MeaningfulEngagementDetector:
def __init__(self):
self.gaze_tracker = GazeTracker()
self.scene_analyzer = SceneAnalyzer()
self.engagement_judge = EngagementJudge()

def detect(self, cabin_frame, road_frame):
# 1. 舱内:眼动追踪
gaze = self.gaze_tracker.track(cabin_frame)

# 2. 舱外:场景理解
scene = self.scene_analyzer.analyze(road_frame)

# 3. 融合判断
engagement = self.engagement_judge.judge(gaze, scene)

return engagement

class EngagementJudge:
def judge(self, gaze, scene):
"""
判断驾驶员是否有意义参与

规则示例:
- 视线指向前方道路 → 有意义
- 视线指向危险区域(行人、障碍物) → 有意义
- 视线指向手机 → 无意义
- 视线指向无关区域 → 无意义
"""
# 视线是否指向道路相关区域
if self.is_gaze_on_road(gaze, scene):
return EngagementLevel.MEANINGFUL

# 视线是否指向驾驶相关对象(后视镜、仪表盘)
if self.is_gaze_on_driving_related(gaze, scene):
return EngagementLevel.MEANINGFUL

# 视线是否指向危险区域(行人、障碍物)
if self.is_gaze_on_hazard(gaze, scene):
return EngagementLevel.MEANINGFUL

# 其他情况
return EngagementLevel.NOT_MEANINGFUL

3.2 数据需求

数据类型 数量 说明
眼动 + 道路场景同步数据 10000+ 驾驶员视线与道路环境对应
驾驶相关行为标注 5000+ 看后视镜、仪表盘等
分心行为标注 5000+ 看手机、发呆等
危险场景数据 2000+ 行人、障碍物出现时的眼动

3.3 硬件配置

1
2
3
4
5
6
7
8
9
10
11
12
13
14
推荐配置:
├─ 舱内摄像头
│ ├─ 位置:转向柱/仪表台
│ ├─ 类型:RGB-IR(940nm
│ └─ FOV:覆盖驾驶员面部
├─ 舱外摄像头
│ ├─ 位置:挡风玻璃顶部
│ ├─ 类型:RGB
│ └─ FOV:前方道路
├─ 处理器
│ ├─ 方案 1:独立 DMS ECU + ADAS ECU(传统)
│ └─ 方案 2:单芯片集成(Mobileye EyeQ6L)
└─ 融合算法
└─ 舱内外感知融合

四、与 IMS 开发的关联

4.1 功能演进路线

阶段 时间 功能 技术要求
阶段 1 2026 眼动追踪 舱内摄像头
阶段 2 2027 视线分类 舱内摄像头 + 简单规则
阶段 3 2028 驾驶相关识别 舱内 + 舱外简单融合
阶段 4 2029 MED 舱内外深度融合

4.2 开发优先级

功能 Euro NCAP 要求 IMS 优先级
眼动追踪 2026 必需 P0(已有)
视线分类 2026 必需 P0(已有)
舱内外融合 2029 预计 P1(提前布局)
MED 2029 预计 P2

4.3 技术挑战

挑战 解决方案
舱内外时间同步 硬件触发同步
坐标系转换 标定与映射算法
计算资源分配 与 ADAS 共享资源
数据标注 同步眼动 + 道路场景数据

五、总结

关键要点

要点 说明
MED 是趋势 Euro NCAP 2029 预计升级
融合是关键 舱内外感知融合
降低误报 区分驾驶相关 vs 无关行为
单芯片集成 Mobileye EyeQ6L 方案

开发启示

  1. 提前布局舱内外融合:为 2029 做准备
  2. 积累同步数据:眼动 + 道路场景
  3. 关注 Mobileye 方案:单芯片集成趋势
  4. 降低误报率:MED 的核心价值

参考来源:

发布日期: 2026-04-13
标签: #EuroNCAP #MED #眼动追踪 #认知分心 #Mobileye #2029


Euro NCAP 2029 MED:从眼动追踪到有意义参与检测的演进
https://dapalm.com/2026/04/13/2026-04-13-Euro-NCAP-2029-MED-Meaningful-Engagement-Detection/
作者
Mars
发布于
2026年4月13日
许可协议