3D舱内感知为什么正在从功能拼接转向统一高可信感知层
3D 舱内感知为什么正在从功能拼接转向统一高可信感知层?
关键词:3D cabin perception、unified perception layer、multi-occupant、OOP、child seat detection、Seeing Machines
Seeing Machines 在 CES 2026 展示的 3D Cabin Perception Mapping,最值得重视的点,不是“多了一个 3D 功能”,而是它提出了一种新的架构范式:
不要再把 DMS / OMS / OOP / occupant classification / child seat detection 做成一个个分散特征模块,而是先建立一个统一的高可信舱内 3D 感知层。
这个方向,很可能会改变未来舱内感知平台的研发方式。
一、传统做法为什么越来越吃力
过去很多舱内项目都是 feature-by-feature:
- 单独做人脸/眼动
- 单独做乘员分类
- 单独做 OOP
- 单独做安全带
- 单独做儿童座椅检测
这种方式短期上线快,但随着 Euro NCAP 2026 往后要求越来越多,会暴露几个问题:
- 各模块定义不一致
- 多摄像头间几何关系难统一
- 不同功能重复做感知,浪费算力
- 遮挡、噪声、配置变化时整体稳定性差
- 每新增一个 feature,系统复杂度线性上升
二、统一 3D 感知层为什么更有价值
Seeing Machines 这次强调的核心,是“solve the entire cabin simultaneously”。
这意味着先做一层统一表征:
- 多摄像头
- 多排座位
- 多乘员
- 3D body size / shape / pose
- 物体/儿童座椅/座椅状态
再在这层表征之上派生各类功能。
这样带来的价值很直接:
1)一致性更高
同一套 3D cabin state 可以同时服务:
- OOP
- near-airbag detection
- occupant classification
- child seat detection
- object awareness
避免不同模块给出互相冲突的结论。
2)对硬件配置更友好
如果特征层解耦于具体 camera pipeline,功能就更容易跨配置迁移。
3)更适合持续扩展
以后新增 seatbelt misuse、CPD 辅助、occupant behavior 等功能时,不用从零再搭感知链路。
三、这对 IMS 的直接启示
1)从 feature pipeline 转向 perception platform
未来舱内感知团队更该建设的是平台,而不只是功能列表。
2)优先建设统一 cabin state representation
建议把以下对象纳入统一表达:
- occupant ID / position / pose
- body size class
- seat state
- child seat / random object
- near-airbag / feet-on-dash 等风险几何关系
3)让法规功能从同一表征派生
这样 Euro NCAP 相关功能会更容易保持一致:
- OOP
- occupant classification
- adaptive restraint
- child seat detection
- 全舱安全带/姿态扩展
四、路线判断
未来舱内感知架构的主流,很可能不是继续堆更多 feature-specific 模块,而是:
先建立统一高可信的 3D cabin perception layer,再把法规功能、HMI 功能和智能座舱功能全部挂在上面。
这会显著降低后续功能扩展成本,也更符合中央计算和软件定义汽车的演进方向。
参考来源
- Seeing Machines CES 2026: 3D Cabin Perception Mapping
- Anyverse CES 2026 in-cabin monitoring summary