车百智库 | AI汽车1.0阶段:汽车座舱AI化
2024-12-30

智能汽车正在向AI汽车发展。


AI汽车综合利用生成式AI大模型、基于规则的小模型等AI技术,具备泛在的理解能力,可通过多模态感知深度理解用户显性及隐式意图,从后端海量原子化服务中匹配合适的服务,并对服务进行高效编排、调度推送,为用户提供个性化服务,在单纯交通工具属性基础上,凸显出更“好玩、好用”的属性。


根据车百智库调研报告《AI汽车进展及趋势》,AI汽车的发展历程被划分为三个阶段,从1.0到3.0。那么,在1.0阶段,AI汽车有哪些特征?


01
AI汽车率先从智能座舱突破




智能座舱已经成为一个高度自动化和信息化的环境,存在大量可挖掘、利用的数据信息和服务场景,是AI技术天然的应用载体。1.0阶段,AI汽车具备较强的特定任务理解能力,能够实现多指令识别、被动执行座舱简单功能等。此阶段,人与汽车仍然是用户和工具的关系。


02
人机交互是主要变革领域




AI技术能够使车机智能助手对驾驶员的交互意图理解更加准确,带来更精准、个性的交互体验,以应对车内越来越复杂的交互需求,甚至能够实现电影《钢铁侠》中贾维斯的效果,其用户感知最明显。信源打通、企业协同等方面难度相对较低,将最先落地。


一方面,大语言模型在车载助手上应用,改变了传统的指令式交互,还能够理解用户的模糊意图,提供更加智能和人性化的服务,有效提升用户语言的识别能力、应答准确性和个性化体验。结合降噪消音技术,还可让驾驶员不必受后排乘客谈话的干扰,大幅提升了车内隐私保护水平。


例如,问界M9配备了隐私声盾,可以避免司机听到后排乘客对话,也能自适应跟随主驾头部进行声音屏蔽。也能通过自然语言实现控制车门、车窗和车灯的开关等简单逻辑功能,提高行车安全性,简化交互流程。还能衍生出文生图,文生视频、AI用车说明书、闲聊等生活服务。


另一方面,在大算力平台加持下,多模态大模型能够融合文字、语音、视觉、动作等多种感官信息,充分发挥车载传感器多样化、数据丰富性的能力,形成“AI座舱大脑”,让车载智慧助手能够更准确、全面地理解复杂场景和任务。包括眼球追踪、语音识别、口语识别联动和驾驶员疲劳状态检测等,也允许用户通过手势识别、面部表情、肢体动作等方式控制车舱各功能。


03
部署方式将从云端调用向端云协同转变




大模型上车的主要方式,是通过API接口调用云端模型能力,可完全发挥出大模型的复杂计算和大规模数据分析能力,但存在有延迟、隐私保护和成本高等问题。


大模型在端侧部署,能够更好保护用户隐私,降低通信成本,MTK、高通等芯片,能够支持百亿级参数大模型的端侧部署。纯端侧部署对算力需求非常大,当前车端芯片无法很好支撑。端云协同部署方案,可以兼顾大模型的意图理解、用户隐私安全、降低使用成本,将成为大模型上车的最重要方式。其中,端侧模型主要负责低时延车控指令执行、隐私数据管理等基础重要功能,云端负责更优使用体验、增值及附加功能。


欲了解更多AI汽车未来发展,请关注车百智库调研报告《AI汽车进展及趋势》。下期文章将深入探讨2.0阶段的发展特征及其带来的更多可能性,敬请关注。

Copyright © 2020 Chinaev100 All Rights Reserved

中国电动汽车百人会 版权所有 ICP备案号:京ICP备19027029号-1