CPD为什么正在从单点功能变成雷达摄像头融合架构

CPD 为什么正在从单点功能,变成“雷达 + 摄像头”融合架构?

关键词:CPD、Child Presence Detection、mmWave radar、camera fusion、Euro NCAP 2026、occupant classification、occlusion robustness

一、别再把 CPD 当成一个孤立小功能

很多团队一提到 CPD(Child Presence Detection),直觉还是:

  • 识别车里有没有孩子
  • 有的话报警
  • 没有就结束

但到了 Euro NCAP 2026 周期,这种理解已经明显不够了。

原因很简单:CPD 不再只是一个“加分小项”,而正在演化成整套舱内感知架构的试金石。

为什么这么说?

因为 CPD 的真实挑战并不是“看见儿童”这么简单,而是要在最糟糕的条件下,稳定确认:

  • 是否有生命体
  • 是否被遮挡
  • 是否在脚坑/毯子下/儿童座椅里
  • 是否需要持续告警
  • 是否需要和 occupant classification、seat occupancy、OMS 共用感知基础设施

这会自然把架构推向一个方向:

camera 负责语义理解,radar 负责遮挡下生命体与微动检测,多模态融合负责最终状态判断。

所以今天真正值得研究的,不是“CPD 要不要做”,而是:

CPD 会不会成为雷达 + 摄像头融合进入量产舱内架构的第一落点。

我认为答案越来越接近“会”。


二、为什么 2026 之后单一传感器路线越来越吃力

1)因为 CPD 天生就有“不可见目标”问题

CPD 最难的场景,恰恰不是视野开阔、光照正常、孩子坐得端端正正的情况。

真正危险也最难检测的是:

  • 婴儿在后向儿童座椅里
  • 被毛毯盖住
  • 躺在脚坑附近
  • 夜间、逆光、强反射环境
  • 乘员离开后车内只剩儿童或宠物

这类场景对 camera-only 方案天然不友好。

视觉能做很多,但它对:

  • 遮挡
  • 黑暗
  • 被布料覆盖
  • 微弱动作

始终存在先天短板。

2)因为 Euro NCAP 对“可靠性”关注越来越强

Anyverse 对 Euro NCAP 2026 的总结里已经很明确:

  • CPD 在 2026 成为重点能力
  • 多模态传感器融合被视为提升复杂场景鲁棒性的推荐路径
  • 验证重点不只是“能不能工作”,而是跨场景、跨人群、跨极端条件的可靠性

这意味着 OEM 不能只追求实验室 demo,而要追求边界条件下的稳定性。

3)因为 CPD 正在和 OMS/occupant classification 靠拢

Anyverse 在 CES 2026 的总结里提到一个非常重要的行业共识:

雷达 + 视觉融合,正在成为同时解决 CPD 与 occupant classification 的主流方案。

这是一个很关键的变化。

如果 CPD 只是一个孤立功能,OEM 可能还会愿意给它上一个独立小模组。

但如果 CPD 能和:

  • seat occupancy
  • occupant classification
  • OOP
  • adaptive restraint

共享感知基础设施,那么整车价值就完全不一样了。


三、为什么雷达在 CPD 上的价值非常难被替代

1)雷达能做 camera 最难做的事:穿遮挡看“微动”

Novelic 的 ACAM 方案给出的价值点非常直接:

  • 60 GHz mmWave radar
  • full interior coverage
  • 不需要 line of sight
  • 可检测 blanket 下、footwell 区域的儿童
  • 对 baggage / fabrics 不敏感
  • 重视匿名性与隐私

这正好命中 CPD 的关键痛点。

视觉传感器再强,只要目标被实物挡住,信息就可能直接丢失。

而雷达的优势在于,它关心的不是纹理和外观,而是:

  • 微小呼吸起伏
  • 身体微动
  • 活体存在信号
  • 空间回波变化

所以在“孩子看不见”的时候,雷达反而经常是更可靠的那一个。

2)雷达天然更友好于隐私与低可见场景

车内摄像头在很多市场和用户语境里,始终会面临隐私敏感问题。

而 radar-based CPD 的一个现实优势是:

  • 不拍脸
  • 不依赖可见图像
  • 夜间能力强
  • 对车内设计干扰小

这对后排儿童/宠物监测尤其友好。

3)雷达还能顺带做更多 occupancy 相关事情

Novelic 公开材料里除了 CPD,还强调了:

  • seat occupancy detection
  • 区分活体与非活体物体
  • 事故后 occupancy 信息输出
  • 周边入侵/接近感知

这说明 radar 如果做成座舱基础设施,并不是只为一个 CPD 功能服务,而是能不断外溢更多功能价值。


四、为什么 camera 仍然不可替代

说雷达重要,不等于 camera 不重要。

实际上,CPD 真正走向量产融合架构的前提,恰恰是两者能力边界很清晰。

camera 更擅长:

  • 儿童座椅类型识别
  • 语义级 occupant classification
  • 姿态与动作解释
  • 座位区域与场景上下文理解
  • 与 DMS/OMS 的统一视觉栈复用

radar 更擅长:

  • 遮挡下活体存在确认
  • blanket / footwell / darkness 条件鲁棒检测
  • 微动与呼吸相关生命体信号
  • 低隐私侵入、全天候工作

所以从系统角度看,最自然的融合逻辑不是“谁替代谁”,而是:

  • radar 负责 existence / vitality / occlusion robustness
  • camera 负责 semantics / classification / context
  • fusion layer 负责最后的 occupant state inference

这也是为什么我更倾向认为 CPD 会成为多模态舱内感知量产化的第一落脚点。


五、对 IMS / OMS 开发最直接的启示

启示 1:不要把 CPD 做成孤立 pipeline

更合理的产品结构应该让 CPD 与以下能力共享状态空间:

  • occupant presence
  • occupant classification
  • seat occupancy
  • child seat detection
  • rear-row monitoring
  • adaptive restraint preconditions

否则会出现多个互相矛盾的子系统:

  • CPD 说有孩子
  • Occupancy 说没人
  • OMS 说看不清

这种架构到量产阶段会很难收敛。

启示 2:融合层应先做“活体/占座/语义”三层分解

建议把问题拆成三层:

第一层:是否有生命体

  • radar 优先
  • 对遮挡鲁棒

第二层:是否有乘员/占座

  • radar + seat + camera 联合
  • 过滤行李、杂物

第三层:是谁、在哪里、姿态如何

  • camera 主导
  • 输出 child / adult / seat position / posture / child seat context

这样系统结构会比直接做一个 end-to-end “CPD yes/no” 更稳。

启示 3:验证集必须重点覆盖“看不见”的极端场景

如果 CPD 测试集里大部分都是“清晰可见儿童”,那等于没测到核心难点。

更有价值的验证集应该重点覆盖:

  • blanket occlusion
  • footwell placement
  • rear-facing child seat
  • partial body visibility
  • low light / night
  • hot cabin / parked vehicle context
  • baggage / doll / non-living object confusion

启示 4:功耗与待机模式设计是 CPD 成败关键

CPD 不像很多行驶中功能,它经常需要在停车后仍持续工作

这意味着产品落地时必须认真处理:

  • standby 功耗
  • 唤醒机制
  • parked-car 模式下的持续监测策略
  • 告警链路与远程通知

Novelic 公布的低功耗指标之所以值得关注,就是因为这正是 CPD 量产里最真实的约束之一。

启示 5:synthetic data 会成为融合验证的重要工具

Anyverse 强调 synthetic data 对 Euro NCAP 2026 readiness 的价值,本质上就是因为很多危险 CPD 场景不方便大量实采。

尤其是:

  • 多遮挡组合
  • 各年龄段儿童体型
  • 多种车内布局
  • 光照极端变化
  • 传感器安装位变化

这类场景非常适合 synthetic + real 的混合验证路线。


六、优先级建议:CPD 融合架构怎么推进更合理

P0:先明确系统边界

  1. 定义 CPD 在整套 OMS 状态机中的位置
  2. 区分 presence / occupancy / classification 三类输出
  3. 明确 radar 与 camera 的主次职责
  4. 建立极端遮挡场景验证清单

P1:近期重点推进

  1. 建立 radar + camera 融合原型
  2. 覆盖 blanket / footwell / rear-facing seat 场景
  3. 加入 seat occupancy / object rejection 机制
  4. 设计停车后持续监测与告警逻辑

P2:中期产品化

  1. 与 rear-row OMS / occupant classification 融合
  2. 与 eCall / vehicle notification / HVAC 联动
  3. 统一到整车 occupant state model
  4. 面向 Euro NCAP 2026+ 建立可复验 KPI 体系

七、路线判断:CPD 很可能会成为舱内多模态融合的“破冰场景”

在所有舱内感知子方向里,CPD 有一个很特别的属性:

  • 需求明确
  • 危险后果严重
  • 单视觉边界明显
  • 雷达补位价值突出
  • 多模态收益容易解释给 OEM

所以它非常适合成为舱内多模态融合率先落地的场景。

我更倾向的判断是:

短期

  • camera-only 方案仍会存在
  • 但高分/高鲁棒 OEM 会越来越倾向 radar + camera

中期

  • CPD、seat occupancy、occupant classification 会逐步共栈
  • radar 从“单点外挂功能”演化成 cabin sensing 的基础传感器之一

长期

  • 舱内将形成更完整的 occupant state model:
    • 有没有人
    • 是否活体
    • 是儿童还是成人
    • 在哪个位置
    • 姿态是否危险
    • 是否需要告警或约束调整

而 CPD,就是这条路线最先成熟的入口之一。


八、结论

如果还把 CPD 理解成“车里忘了孩子就报个警”,那就低估了它。

从 2026 开始,CPD 更像是在倒逼整套舱内架构回答一个更难的问题:

在遮挡、黑暗、复杂姿态和隐私约束下,车辆如何可靠理解“车内是否还有活体儿童存在”?

这个问题靠单一传感器越来越难优雅解决。

而 radar + camera 融合之所以越来越有吸引力,不是因为它更复杂,而是因为它刚好符合 CPD 的真实物理难题:

  • 雷达补“看不见”
  • 摄像头补“看不懂”
  • 融合层补“怎么决策”

所以我会把 CPD 看成未来舱内多模态融合最值得优先押注的量产入口之一。


参考资料

  1. Anyverse, In-Cabin Monitoring at CES 2026: From Driver Monitoring to Agentic Cabin Intelligence, 2026-01
  2. Anyverse, Euro NCAP 2026 In-Cabin Monitoring: OEM Guidelines to Readiness, 2025
  3. Novelic, ACAM – In-Cabin Monitoring Radar, 2025/2026

CPD为什么正在从单点功能变成雷达摄像头融合架构
https://dapalm.com/2026/03/18/2026-03-18-CPD为什么正在从单点功能变成雷达摄像头融合架构/
作者
Mars
发布于
2026年3月18日
许可协议