单传感器3D舱内感知-会成为-DMS-OMS-量产新路线吗
单传感器 3D 舱内感知,会成为 DMS / OMS 量产新路线吗?
关键词:single-sensor 3D、passive 3D、depth from single image、DMS、OMS、OOP、adaptive restraint、Euro NCAP 2026
一、为什么这个方向现在值得盯紧
过去大家一提 3D 舱内感知,默认想到的是:
- 双目
- ToF
- 结构光
- 主动红外
- 更高 BOM、更复杂标定、更高功耗
所以很多量产团队的直觉是:3D 很好,但贵,也重。
问题是,Euro NCAP 2026 把舱内感知往更难的问题上推了:
- 乘员体型分类
- out-of-position 连续检测
- 距离仪表台/气囊展开区域的风险估计
- adaptive restraint 联动
- 更高鲁棒性的 occupant state estimation
这些问题靠纯 2D 不是不能做,而是会越来越吃力。
因此一个非常值得关注的新趋势出现了:single-sensor 3D / passive 3D in-cabin monitoring。
它的核心吸引力在于:
尽量保留 3D 深度带来的姿态与距离理解能力,同时避免传统 3D 方案在成本、体积、功耗、集成复杂度上的惩罚。
如果这条路线成熟,它会非常适合高性价比量产车型,也可能改变未来 DMS/OMS 的平台架构。
二、这条路线最近为什么升温
1)Smart Eye 在 CES 2026 明确把 Single-Sensor 3D 作为独立展示项
Smart Eye 在 CES 2026 展示中,单独把 Single-Sensor 3D In-Cabin Monitoring 拎了出来。
它给出的定位很直接:
- 从单个被动图像传感器中获得深度信息
- 增强 driver/occupant monitoring 对姿态和位置的理解
- 保持较低硬件复杂度和集成成本
- 支持紧凑安装、behind-glass 集成和大规模量产车型部署
这说明在头部供应商视角里,这已经不是实验室概念,而是开始被包装成production-oriented setup。
2)Smart Eye + Airy3D 的联合演示,点名了 adaptive restraints
Smart Eye 和 Airy3D 在 2026 年 1 月发布的联合演示里,直接把价值点对准:
- 用单个 passive 3D sensor 做 driver/occupant monitoring
- 重点支持 robust adaptive restraints for passive safety
- 目标是在成本、尺寸、功耗、系统复杂度之间取得更优平衡
更值得注意的是,他们的表述不是“加一点深度更好看”,而是:
在支持高 ASIL 级别 adaptive restraint 的系统里,系统层面正在要求增加深度感知。
这句话很重。它意味着深度信息不再是锦上添花,而是在某些安全等级目标下,开始接近“被需求拉动”。
3)Seeing Machines 的表态也说明行业在找“低硬件复杂度的高保真方案”
InCabin Europe 2025 对 Seeing Machines 的报道里提到,行业正在分成两类路线:
- 一类做多传感器、多模态融合
- 另一类试图把单一集成传感器能力推到极限,用算法去“模拟/逼近 3D 感知能力”
这说明单传感器路线不是边缘议题,而是主流玩家都在认真探索的一条成本优化路线。
三、单传感器 3D 真正解决的不是“更炫”,而是 2D 的几个硬伤
1)OOP 检测需要距离,不只是类别
很多 OOP 场景,本质上不是普通分类问题,而是空间关系问题:
- 身体离仪表台有多近?
- 头部是否进入危险展开区域?
- 脚放仪表台时距离/位置关系怎样?
- 上半身前倾的程度是否达到危险阈值?
纯 2D 可以通过关键点、透视几何、相对尺度做近似,但在不同座椅位置、不同身材、不同镜头畸变和遮挡条件下,很难稳定。
而深度一旦可用,很多问题立刻从“难以泛化的视觉猜测”变成“可度量的空间估计”。
2)体型分桶和 adaptive restraint 需要更可信的几何信息
Euro NCAP 2026 强调 occupant stature classification 和 restraint adaptation。
如果只靠 2D:
- 服饰宽松会影响体型判断
- 视角变化会影响比例估计
- 坐姿差异会导致身材 proxy 波动
而单传感器 3D 如果能稳定给出:
- 头胸相对深度
- 躯干空间范围
- 身体与座椅参考系的几何关系
就能显著增强体型分桶与 posture-aware restraint recommendation 的稳定性。
3)behind-glass、紧凑集成场景下,传统主动 3D 方案不一定最优
如果 OEM 想做更干净的座舱设计,比如:
- 隐藏式摄像头
- behind-display / behind-glass 集成
- 成本敏感平台的单模组 DMS/OMS
那么传统主动 3D 方案经常会遇到:
- 光路设计复杂
- 发射与接收窗口限制
- 散热与功耗压力
- 阳光干扰与材料透过率限制
- 模组体积难压缩
这时,被动式 single-sensor 3D 的吸引力就会明显上升。
四、但它不是银弹:真正的问题在于“能否稳定到车规量产”
我对这条路线的判断是:很值得跟,但不要过度乐观。
原因很简单,single-sensor 3D 解决了硬件问题的一部分,却把很多难题转移给算法和系统工程。
挑战 1:深度质量是否足够支撑安全决策
如果单传感器 3D 给出的只是“粗深度”,它可能适合交互、舱内体验、粗姿态分析,但未必足够支持:
- airbag deployment suppression
- adaptive restraint profile selection
- high-confidence OOP determination
也就是说,关键不在于“有没有深度”,而在于:
这个深度能否在安全关键场景下稳定、可解释、可验证。
挑战 2:极端光照、遮挡、穿着和体型变化下是否还能稳定
舱内是真正的脏环境:
- 夜间 IR 条件
- 强日照直射
- 墨镜、帽子、口罩
- 毯子、儿童座椅遮挡
- 厚衣服、羽绒服、大件包裹
- 座椅位置不同、靠背角度不同
单传感器 3D 如果对纹理、光照或视差先验依赖太强,鲁棒性很容易掉。
挑战 3:ASIL 和功能安全链路怎么论证
新闻稿里已经点到了 high ASIL levels,这意味着后面真正困难的不是 demo,而是:
- 失效模式怎么定义
- 置信度怎么输出
- 深度不可靠时怎么回退
- 与 2D/seat sensor/belt sensor 融合时谁主谁辅
- 如何证明系统在边界场景中不会给出危险建议
这部分如果做不好,single-sensor 3D 很容易停在“演示很好看,量产很谨慎”。
五、对 IMS 团队最直接的开发启示
启示 1:不要把 single-sensor 3D 理解成“替代所有传感器”
更现实的定位应该是:
它是一个在成本敏感平台上增强空间理解能力的中间层技术。
也就是说,它最合适的角色可能是:
- 替代传统主动 3D 中的一部分功能
- 增强 2D 视觉对 posture / distance / occupant geometry 的感知
- 与 seat sensor、belt sensor、radar 形成轻量级互补
而不是幻想一颗单摄像头吃掉所有问题。
启示 2:算法输出要从分类升级到几何状态
如果未来引入 single-sensor 3D,输出层不能只停留在:
- distracted / not distracted
- adult / child
- oop / normal
而应该扩展成:
- head_to_dash_distance
- torso_forward_displacement
- foot_on_dash_probability + region
- occupant_stature_proxy
- seat_reference_geometry
- posture_risk_score
- depth_confidence
- safe_fallback_flag
只有这样,下游 restraint 逻辑才能真正消费这些信息。
启示 3:要提前建设“2D + pseudo-3D + 传感器融合”的验证框架
别等单传感器 3D 真上车了再做验证。
更合理的做法是提前准备:
- 2D-only baseline
- 2D + depth augmentation
- 2D + seat sensor
- 2D + depth + seat/belt sensor
然后对比:
- OOP 检出率
- 误报率
- 距离估计误差
- 体型分桶一致性
- 不同光照/服饰/姿态下鲁棒性
- fail-safe 回退表现
启示 4:synthetic data 会变得更重要
single-sensor 3D 如果要覆盖极端姿态和复杂空间关系,单靠实采数据会很慢。
尤其是:
- feet on dash
- lean-forward near deployment zone
- 不同体型 percentile
- 不同座椅位置与角度
- 儿童座椅 + 成人混合场景
这类数据非常适合 synthetic data 做覆盖与补洞。
启示 5:产品规划上要分层,不要一次把目标拉太满
建议把落地目标拆成三层:
L1:感知增强层
- 增强 posture/position estimation
- 提升 OOP 检测稳定性
- 提供距离相关特征
L2:风险评估层
- 输出 posture risk score
- 输出体型 proxy 与几何约束信息
- 与 seat/belt sensor 做一致性检查
L3:安全策略层
- 输出 restraint recommendation
- 与 airbag / seatbelt ECU 接口定义
- 建立故障回退与置信度治理机制
这样更符合车规项目推进节奏。
六、优先级建议:这条线怎么推进最合理
P0:立刻研究
- 梳理 OOP / adaptive restraint 对深度信息的真实需求清单
- 建立 2D-only 与 depth-enhanced 的离线对比实验
- 明确哪些功能是“没有深度很难稳定”的
- 定义 depth_confidence 与 fail-safe 机制
P1:近期落地
- 把单传感器 3D 纳入前排 OMS 架构预研
- 建立体型分桶 + 距离估计联合输出格式
- 结合 seat sensor / belt sensor 做融合验证
- 覆盖夜间、逆光、遮挡、儿童座椅等极端样本
P2:中期产品化
- 评估 behind-glass / hidden camera 场景适配性
- 评估与 radar 在 CPD / occupant presence 上的互补边界
- 将 single-sensor 3D 纳入高性价比车型量产方案
- 建立符合功能安全要求的验证和回退闭环
七、路线判断:它很可能不是唯一未来,但会成为重要分支
我不认为未来舱内感知会只剩 single-sensor 3D 一条路线。
更可能的格局是三路并存:
路线 A:多模态高配路线
- camera + radar + seat + belt + maybe depth
- 面向高端平台和高安全冗余需求
路线 B:单传感器 3D 增强路线
- 以低复杂度获取更强空间理解
- 面向高性价比量产车型
路线 C:2D 高保真算法路线
- 用更强模型逼近 3D 感知能力
- 尽量压 BOM,但对算法要求极高
从现阶段看,single-sensor 3D 最大的价值,不是消灭其他路线,而是给行业提供了一个很有吸引力的新平衡点:
比纯 2D 更懂空间,比传统 3D 更省系统成本。
这正好击中 2026 后舱内安全量产最现实的矛盾。
八、结论:值得重点跟踪,但要用“安全闭环”而不是“炫技深度”来衡量
单传感器 3D 真正的价值,不在于多了一张深度图,而在于它能不能帮助解决以下几个量产难题:
- OOP 的空间风险判断
- Occupant Classification 的几何稳定性
- Adaptive Restraint 的状态输入
- 高集成度、低 BOM 的车规部署
- behind-glass / hidden camera 的工程可行性
如果它只能提升 demo 效果,那意义有限。
但如果它能稳定支撑:
- posture estimation
- distance-to-risk-zone estimation
- restraint recommendation input
- fail-safe + confidence governance
那它就很可能成为 2026-2028 年 DMS/OMS 架构里非常关键的一条新分支。
我自己的判断是:
这条线值得作为 IMS 预研重点之一,但评价标准必须是“对安全闭环有没有实际贡献”,而不是“是否引入了 3D”。
未来真正赢的,不是最会讲 3D 故事的人,而是最先把 3D 信息变成可验证、可量产、可联动约束系统状态输入的人。
参考资料
- Smart Eye, Smart Eye at CES 2026, 2026-01
- Smart Eye & Airy3D, Single-Sensor 3D Solution for In-Cabin Monitoring at CES 2026, 2026-01-06
- InCabin, Seeing Machines To Showcase Rare Live Demo At InCabin Europe 2025, 2025-09-07