前言
Mobileye 在 2026 年 3 月宣布获得美系车企百万级 DMS 订单时,透露了一个关键信息:
Euro NCAP 2029 协议预计将从眼动追踪升级为有意义参与检测(Meaningful Engagement Detection, MED)。
这是 DMS 技术演进的下一个重大里程碑。
一、MED 的技术内涵
1.1 从”眼睛在哪里”到”是否在看该看的地方”
| 检测方式 |
眼动追踪(2026) |
有意义参与检测(2029) |
| 核心问题 |
驾驶员眼睛在哪里? |
驾驶员是否在看该看的地方? |
| 技术要求 |
眼动追踪 |
眼动 + 道路感知融合 |
| 上下文 |
无 |
结合道路环境 |
| 误报率 |
较高 |
更低 |
| 检测深度 |
视觉分心 |
认知分心(部分) |
1.2 Mobileye 的技术路线
根据 Mobileye 官方说明:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| Mobileye DMS 技术架构:
┌─────────────────────────────────────────────┐ │ 舱内感知(DMS) │ │ ├─ 眼动追踪 │ │ ├─ 视线方向估计 │ │ └─ 驾驶员状态判断 │ ├─────────────────────────────────────────────┤ │ 舱外感知(ADAS) │ │ ├─ 道路环境感知 │ │ ├─ 交通场景理解 │ │ └─ 危险区域识别 │ ├─────────────────────────────────────────────┤ │ 融合判断(MED) │ │ ├─ 视线是否指向道路? │ │ ├─ 视线是否指向危险区域? │ │ └─ 驾驶员是否"有意义参与"? │ └─────────────────────────────────────────────┘
|
关键创新: 单芯片(EyeQ6L)同时运行 DMS + OMS + ADAS,无需独立 DMS ECU。
二、MED vs 传统 DMS
2.1 场景对比
| 场景 |
传统 DMS 响应 |
MED 响应 |
| 驾驶员看后视镜 |
⚠️ 可能误报为分心 |
✅ 识别为驾驶相关行为 |
| 驾驶员看仪表盘 |
⚠️ 可能误报为分心 |
✅ 识别为驾驶相关行为 |
| 驾驶员看手机 |
❌ 检测为分心 |
❌ 检测为分心 |
| 驾驶员看道路但认知分心 |
❌ 无法检测 |
⚠️ 部分检测(结合行为模式) |
2.2 技术要求
| 维度 |
传统 DMS |
MED |
| 传感器 |
舱内摄像头 |
舱内 + 舱外摄像头 |
| 算法 |
眼动追踪 |
眼动 + 场景理解 + 融合 |
| 计算资源 |
独立 ECU 或集成 |
与 ADAS 共享资源 |
| 数据需求 |
眼动数据 |
眼动 + 道路场景数据 |
三、开发落地方案
3.1 系统架构
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44
| class MeaningfulEngagementDetector: def __init__(self): self.gaze_tracker = GazeTracker() self.scene_analyzer = SceneAnalyzer() self.engagement_judge = EngagementJudge() def detect(self, cabin_frame, road_frame): gaze = self.gaze_tracker.track(cabin_frame) scene = self.scene_analyzer.analyze(road_frame) engagement = self.engagement_judge.judge(gaze, scene) return engagement
class EngagementJudge: def judge(self, gaze, scene): """ 判断驾驶员是否有意义参与 规则示例: - 视线指向前方道路 → 有意义 - 视线指向危险区域(行人、障碍物) → 有意义 - 视线指向手机 → 无意义 - 视线指向无关区域 → 无意义 """ if self.is_gaze_on_road(gaze, scene): return EngagementLevel.MEANINGFUL if self.is_gaze_on_driving_related(gaze, scene): return EngagementLevel.MEANINGFUL if self.is_gaze_on_hazard(gaze, scene): return EngagementLevel.MEANINGFUL return EngagementLevel.NOT_MEANINGFUL
|
3.2 数据需求
| 数据类型 |
数量 |
说明 |
| 眼动 + 道路场景同步数据 |
10000+ |
驾驶员视线与道路环境对应 |
| 驾驶相关行为标注 |
5000+ |
看后视镜、仪表盘等 |
| 分心行为标注 |
5000+ |
看手机、发呆等 |
| 危险场景数据 |
2000+ |
行人、障碍物出现时的眼动 |
3.3 硬件配置
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| 推荐配置: ├─ 舱内摄像头 │ ├─ 位置:转向柱/仪表台 │ ├─ 类型:RGB-IR(940nm) │ └─ FOV:覆盖驾驶员面部 ├─ 舱外摄像头 │ ├─ 位置:挡风玻璃顶部 │ ├─ 类型:RGB │ └─ FOV:前方道路 ├─ 处理器 │ ├─ 方案 1:独立 DMS ECU + ADAS ECU(传统) │ └─ 方案 2:单芯片集成(Mobileye EyeQ6L) └─ 融合算法 └─ 舱内外感知融合
|
四、与 IMS 开发的关联
4.1 功能演进路线
| 阶段 |
时间 |
功能 |
技术要求 |
| 阶段 1 |
2026 |
眼动追踪 |
舱内摄像头 |
| 阶段 2 |
2027 |
视线分类 |
舱内摄像头 + 简单规则 |
| 阶段 3 |
2028 |
驾驶相关识别 |
舱内 + 舱外简单融合 |
| 阶段 4 |
2029 |
MED |
舱内外深度融合 |
4.2 开发优先级
| 功能 |
Euro NCAP 要求 |
IMS 优先级 |
| 眼动追踪 |
2026 必需 |
P0(已有) |
| 视线分类 |
2026 必需 |
P0(已有) |
| 舱内外融合 |
2029 预计 |
P1(提前布局) |
| MED |
2029 预计 |
P2 |
4.3 技术挑战
| 挑战 |
解决方案 |
| 舱内外时间同步 |
硬件触发同步 |
| 坐标系转换 |
标定与映射算法 |
| 计算资源分配 |
与 ADAS 共享资源 |
| 数据标注 |
同步眼动 + 道路场景数据 |
五、总结
关键要点
| 要点 |
说明 |
| MED 是趋势 |
Euro NCAP 2029 预计升级 |
| 融合是关键 |
舱内外感知融合 |
| 降低误报 |
区分驾驶相关 vs 无关行为 |
| 单芯片集成 |
Mobileye EyeQ6L 方案 |
开发启示
- 提前布局舱内外融合:为 2029 做准备
- 积累同步数据:眼动 + 道路场景
- 关注 Mobileye 方案:单芯片集成趋势
- 降低误报率:MED 的核心价值
参考来源:
发布日期: 2026-04-13
标签: #EuroNCAP #MED #眼动追踪 #认知分心 #Mobileye #2029