单传感器3D舱内感知-会成为-DMS-OMS-量产新路线吗

单传感器 3D 舱内感知,会成为 DMS / OMS 量产新路线吗?

关键词:single-sensor 3D、passive 3D、depth from single image、DMS、OMS、OOP、adaptive restraint、Euro NCAP 2026

一、为什么这个方向现在值得盯紧

过去大家一提 3D 舱内感知,默认想到的是:

  • 双目
  • ToF
  • 结构光
  • 主动红外
  • 更高 BOM、更复杂标定、更高功耗

所以很多量产团队的直觉是:3D 很好,但贵,也重。

问题是,Euro NCAP 2026 把舱内感知往更难的问题上推了:

  • 乘员体型分类
  • out-of-position 连续检测
  • 距离仪表台/气囊展开区域的风险估计
  • adaptive restraint 联动
  • 更高鲁棒性的 occupant state estimation

这些问题靠纯 2D 不是不能做,而是会越来越吃力。

因此一个非常值得关注的新趋势出现了:single-sensor 3D / passive 3D in-cabin monitoring

它的核心吸引力在于:

尽量保留 3D 深度带来的姿态与距离理解能力,同时避免传统 3D 方案在成本、体积、功耗、集成复杂度上的惩罚。

如果这条路线成熟,它会非常适合高性价比量产车型,也可能改变未来 DMS/OMS 的平台架构。


二、这条路线最近为什么升温

1)Smart Eye 在 CES 2026 明确把 Single-Sensor 3D 作为独立展示项

Smart Eye 在 CES 2026 展示中,单独把 Single-Sensor 3D In-Cabin Monitoring 拎了出来。

它给出的定位很直接:

  • 从单个被动图像传感器中获得深度信息
  • 增强 driver/occupant monitoring 对姿态和位置的理解
  • 保持较低硬件复杂度和集成成本
  • 支持紧凑安装、behind-glass 集成和大规模量产车型部署

这说明在头部供应商视角里,这已经不是实验室概念,而是开始被包装成production-oriented setup

2)Smart Eye + Airy3D 的联合演示,点名了 adaptive restraints

Smart Eye 和 Airy3D 在 2026 年 1 月发布的联合演示里,直接把价值点对准:

  • 用单个 passive 3D sensor 做 driver/occupant monitoring
  • 重点支持 robust adaptive restraints for passive safety
  • 目标是在成本、尺寸、功耗、系统复杂度之间取得更优平衡

更值得注意的是,他们的表述不是“加一点深度更好看”,而是:

在支持高 ASIL 级别 adaptive restraint 的系统里,系统层面正在要求增加深度感知。

这句话很重。它意味着深度信息不再是锦上添花,而是在某些安全等级目标下,开始接近“被需求拉动”。

3)Seeing Machines 的表态也说明行业在找“低硬件复杂度的高保真方案”

InCabin Europe 2025 对 Seeing Machines 的报道里提到,行业正在分成两类路线:

  • 一类做多传感器、多模态融合
  • 另一类试图把单一集成传感器能力推到极限,用算法去“模拟/逼近 3D 感知能力”

这说明单传感器路线不是边缘议题,而是主流玩家都在认真探索的一条成本优化路线。


三、单传感器 3D 真正解决的不是“更炫”,而是 2D 的几个硬伤

1)OOP 检测需要距离,不只是类别

很多 OOP 场景,本质上不是普通分类问题,而是空间关系问题

  • 身体离仪表台有多近?
  • 头部是否进入危险展开区域?
  • 脚放仪表台时距离/位置关系怎样?
  • 上半身前倾的程度是否达到危险阈值?

纯 2D 可以通过关键点、透视几何、相对尺度做近似,但在不同座椅位置、不同身材、不同镜头畸变和遮挡条件下,很难稳定。

而深度一旦可用,很多问题立刻从“难以泛化的视觉猜测”变成“可度量的空间估计”。

2)体型分桶和 adaptive restraint 需要更可信的几何信息

Euro NCAP 2026 强调 occupant stature classification 和 restraint adaptation。

如果只靠 2D:

  • 服饰宽松会影响体型判断
  • 视角变化会影响比例估计
  • 坐姿差异会导致身材 proxy 波动

而单传感器 3D 如果能稳定给出:

  • 头胸相对深度
  • 躯干空间范围
  • 身体与座椅参考系的几何关系

就能显著增强体型分桶与 posture-aware restraint recommendation 的稳定性。

3)behind-glass、紧凑集成场景下,传统主动 3D 方案不一定最优

如果 OEM 想做更干净的座舱设计,比如:

  • 隐藏式摄像头
  • behind-display / behind-glass 集成
  • 成本敏感平台的单模组 DMS/OMS

那么传统主动 3D 方案经常会遇到:

  • 光路设计复杂
  • 发射与接收窗口限制
  • 散热与功耗压力
  • 阳光干扰与材料透过率限制
  • 模组体积难压缩

这时,被动式 single-sensor 3D 的吸引力就会明显上升。


四、但它不是银弹:真正的问题在于“能否稳定到车规量产”

我对这条路线的判断是:很值得跟,但不要过度乐观。

原因很简单,single-sensor 3D 解决了硬件问题的一部分,却把很多难题转移给算法和系统工程。

挑战 1:深度质量是否足够支撑安全决策

如果单传感器 3D 给出的只是“粗深度”,它可能适合交互、舱内体验、粗姿态分析,但未必足够支持:

  • airbag deployment suppression
  • adaptive restraint profile selection
  • high-confidence OOP determination

也就是说,关键不在于“有没有深度”,而在于:

这个深度能否在安全关键场景下稳定、可解释、可验证。

挑战 2:极端光照、遮挡、穿着和体型变化下是否还能稳定

舱内是真正的脏环境:

  • 夜间 IR 条件
  • 强日照直射
  • 墨镜、帽子、口罩
  • 毯子、儿童座椅遮挡
  • 厚衣服、羽绒服、大件包裹
  • 座椅位置不同、靠背角度不同

单传感器 3D 如果对纹理、光照或视差先验依赖太强,鲁棒性很容易掉。

挑战 3:ASIL 和功能安全链路怎么论证

新闻稿里已经点到了 high ASIL levels,这意味着后面真正困难的不是 demo,而是:

  • 失效模式怎么定义
  • 置信度怎么输出
  • 深度不可靠时怎么回退
  • 与 2D/seat sensor/belt sensor 融合时谁主谁辅
  • 如何证明系统在边界场景中不会给出危险建议

这部分如果做不好,single-sensor 3D 很容易停在“演示很好看,量产很谨慎”。


五、对 IMS 团队最直接的开发启示

启示 1:不要把 single-sensor 3D 理解成“替代所有传感器”

更现实的定位应该是:

它是一个在成本敏感平台上增强空间理解能力的中间层技术。

也就是说,它最合适的角色可能是:

  • 替代传统主动 3D 中的一部分功能
  • 增强 2D 视觉对 posture / distance / occupant geometry 的感知
  • 与 seat sensor、belt sensor、radar 形成轻量级互补

而不是幻想一颗单摄像头吃掉所有问题。

启示 2:算法输出要从分类升级到几何状态

如果未来引入 single-sensor 3D,输出层不能只停留在:

  • distracted / not distracted
  • adult / child
  • oop / normal

而应该扩展成:

  • head_to_dash_distance
  • torso_forward_displacement
  • foot_on_dash_probability + region
  • occupant_stature_proxy
  • seat_reference_geometry
  • posture_risk_score
  • depth_confidence
  • safe_fallback_flag

只有这样,下游 restraint 逻辑才能真正消费这些信息。

启示 3:要提前建设“2D + pseudo-3D + 传感器融合”的验证框架

别等单传感器 3D 真上车了再做验证。

更合理的做法是提前准备:

  • 2D-only baseline
  • 2D + depth augmentation
  • 2D + seat sensor
  • 2D + depth + seat/belt sensor

然后对比:

  • OOP 检出率
  • 误报率
  • 距离估计误差
  • 体型分桶一致性
  • 不同光照/服饰/姿态下鲁棒性
  • fail-safe 回退表现

启示 4:synthetic data 会变得更重要

single-sensor 3D 如果要覆盖极端姿态和复杂空间关系,单靠实采数据会很慢。

尤其是:

  • feet on dash
  • lean-forward near deployment zone
  • 不同体型 percentile
  • 不同座椅位置与角度
  • 儿童座椅 + 成人混合场景

这类数据非常适合 synthetic data 做覆盖与补洞。

启示 5:产品规划上要分层,不要一次把目标拉太满

建议把落地目标拆成三层:

L1:感知增强层

  • 增强 posture/position estimation
  • 提升 OOP 检测稳定性
  • 提供距离相关特征

L2:风险评估层

  • 输出 posture risk score
  • 输出体型 proxy 与几何约束信息
  • 与 seat/belt sensor 做一致性检查

L3:安全策略层

  • 输出 restraint recommendation
  • 与 airbag / seatbelt ECU 接口定义
  • 建立故障回退与置信度治理机制

这样更符合车规项目推进节奏。


六、优先级建议:这条线怎么推进最合理

P0:立刻研究

  1. 梳理 OOP / adaptive restraint 对深度信息的真实需求清单
  2. 建立 2D-only 与 depth-enhanced 的离线对比实验
  3. 明确哪些功能是“没有深度很难稳定”的
  4. 定义 depth_confidence 与 fail-safe 机制

P1:近期落地

  1. 把单传感器 3D 纳入前排 OMS 架构预研
  2. 建立体型分桶 + 距离估计联合输出格式
  3. 结合 seat sensor / belt sensor 做融合验证
  4. 覆盖夜间、逆光、遮挡、儿童座椅等极端样本

P2:中期产品化

  1. 评估 behind-glass / hidden camera 场景适配性
  2. 评估与 radar 在 CPD / occupant presence 上的互补边界
  3. 将 single-sensor 3D 纳入高性价比车型量产方案
  4. 建立符合功能安全要求的验证和回退闭环

七、路线判断:它很可能不是唯一未来,但会成为重要分支

我不认为未来舱内感知会只剩 single-sensor 3D 一条路线。

更可能的格局是三路并存:

路线 A:多模态高配路线

  • camera + radar + seat + belt + maybe depth
  • 面向高端平台和高安全冗余需求

路线 B:单传感器 3D 增强路线

  • 以低复杂度获取更强空间理解
  • 面向高性价比量产车型

路线 C:2D 高保真算法路线

  • 用更强模型逼近 3D 感知能力
  • 尽量压 BOM,但对算法要求极高

从现阶段看,single-sensor 3D 最大的价值,不是消灭其他路线,而是给行业提供了一个很有吸引力的新平衡点:

比纯 2D 更懂空间,比传统 3D 更省系统成本。

这正好击中 2026 后舱内安全量产最现实的矛盾。


八、结论:值得重点跟踪,但要用“安全闭环”而不是“炫技深度”来衡量

单传感器 3D 真正的价值,不在于多了一张深度图,而在于它能不能帮助解决以下几个量产难题:

  • OOP 的空间风险判断
  • Occupant Classification 的几何稳定性
  • Adaptive Restraint 的状态输入
  • 高集成度、低 BOM 的车规部署
  • behind-glass / hidden camera 的工程可行性

如果它只能提升 demo 效果,那意义有限。

但如果它能稳定支撑:

  • posture estimation
  • distance-to-risk-zone estimation
  • restraint recommendation input
  • fail-safe + confidence governance

那它就很可能成为 2026-2028 年 DMS/OMS 架构里非常关键的一条新分支。

我自己的判断是:

这条线值得作为 IMS 预研重点之一,但评价标准必须是“对安全闭环有没有实际贡献”,而不是“是否引入了 3D”。

未来真正赢的,不是最会讲 3D 故事的人,而是最先把 3D 信息变成可验证、可量产、可联动约束系统状态输入的人。


参考资料

  1. Smart Eye, Smart Eye at CES 2026, 2026-01
  2. Smart Eye & Airy3D, Single-Sensor 3D Solution for In-Cabin Monitoring at CES 2026, 2026-01-06
  3. InCabin, Seeing Machines To Showcase Rare Live Demo At InCabin Europe 2025, 2025-09-07

单传感器3D舱内感知-会成为-DMS-OMS-量产新路线吗
https://dapalm.com/2026/03/18/2026-03-18-单传感器3D舱内感知-会成为-DMS-OMS-量产新路线吗/
作者
Mars
发布于
2026年3月18日
许可协议