智能驾驶行业正面临关键转折点。传统分拆式供应链——芯片商、Tier1硬件供应商与算法开发商各自为政,导致系统兼容性差、迭代滞后。车企即便堆砌激光雷达与高算力芯片(成本超3万元),用户体验仍难突破。纯软件方案供应商则因无法深度耦合硬件,优化空间被严重挤压。“拼盘式方案已触及天花板,”某头部车企技术负责人坦言,“软硬件割裂,让智能驾驶陷入‘加配置不加体验’的恶性循环。”
而卓驭选择了一条更艰难却本质的路径:软硬件全栈自研。 这并非简单的技术叠加,而是从底层重构智能驾驶系统的基因。
传统供应链中,传感器、芯片、算法由不同厂商提供,数据流转需多次转换。如同用三种语言写作一篇文章,信息损耗不可避免。而卓驭自研惯导立体双目视觉系统与「知周」补盲雷达,可以使原始感知数据直通决策算法,减少70%中间层计算冗余,打破“数据孤岛”的技术闭环。
再比如纯软件方案需适配不同硬件平台,功能开发受制于芯片算力分配、传感器物理特性等“黑盒约束”,只能用硬件定义软件边界,而卓驭仅凭7个摄像头+32TOPS算力实现的城市领航功能,这源于其激目融合系统独有的“硬件互验”机制:双目视觉与毫米波雷达原始数据在芯片层实时交叉验证,减少40%无效计算。
因此,卓驭的破局点—软硬件全栈自研,成为行业稀缺能力。
在硬件层,卓驭自研的惯导立体双目视觉系统、“激目2.0”传感器、「知周」补盲雷达,实现三维感知精度达0.05米,红绿灯识别距离超300米;在软件层:全球首个跨算力平台(32TOPS-1000TOPS)部署端到端模型,一套架构打通感知-规划全链路。
在友商还在为不同芯片开发多套算法时,卓驭的端到端模型架构已实现从32TOPS到1000TOPS的无缝部署。核心在于独创的“算力自适应编译器”:自动识别芯片架构特性,将计算任务拆解为微指令集。例如在低算力平台优先保障障碍物轨迹预测,高算力平台则激活场景生成式推演。这使宝骏云朵(搭载32TOPS芯片)与红旗E009(1000TOPS)用户获得同源技术体验。
当行业沉迷于算力数字游戏时,卓驭用软硬一体化的全栈能力证明:智能驾驶的终极竞争力,不在于配置表的豪华程度,而在于系统级优化的深度。 从自研仿生视觉传感器到弹性编译架构,其每一步都在践行一个朴素的真理——唯有打通软硬件经脉,才能让智能驾驶真正“思考”起来。