我爱汽车网

智能座舱正在迎来变革时刻,大屏幕不再重要

制作者:

|创文豪·汽车资讯

作者 |杨露

“基于触摸的交互可能不适合汽车。”

5月中旬,理想汽车在硅谷举办分享会。智能空间副总裁苟晓飞讲述了她对智能座舱的看法。他认为,座舱服务的核心点在于其交互形式。

如今的智能座舱交互以触摸为主,语音为辅。理想汽车苟晓飞表示,智能座舱更好的交互方式将以语音为主,触摸为辅。

造成这种需求变化的主要原因是触摸控制的局限性。触摸控制基于前屏,驾驶员只能触摸中控位置。开车时同时双手和眼睛会导致分心。但目前的语音控制水平还不足以承担起“第一交互通道”的重任。

在业内人士和消费者看来,目前所谓的“智能座舱”大多有点敷衍,比如语音交互不流畅、搜索功能不方便、“智能”而不是“智商”等。

智能座舱从“会用”到“好用”,提升交互能力是根本。今年,在一些企业的新品发布中,交互系统的改进被多次提及。百度Apollo明确表示,问心大车型将使智能座舱在语音交互方面响应更快,提供更好的驾驶体验。

驾驶舱“堆料”瓶颈亟待突破

如今,只要坐上一辆新能源汽车,毫不奇怪,你会发现中控大屏、智能语音对话等功能。不过,这些功能的体验因型号级别和配置的不同而有所差异。

为了追求座舱差异化,主机厂不得不增加一些功能,比如屏幕随音乐旋转跳动、巨屏观景、座舱音乐厅等。叠加起来可能看起来很酷,但实际上事实上它并没有触及驾驶过程中智能的核心。功能。

智能驾驶解决方案开发商MINIEYE智能座舱负责人杨一红表示,当前智能座舱带来的一个问题是消费者的学习成本变高。

“智能手机对于很多老年人来说并不友好,汽车也是如此。如果某些智能功能过于复杂,驾驶员和乘客可能会减少使用频率,反而浪费这些功能。所以智能座舱我认为交互设计不应该是‘炫技’,而应该基于实际功能,让消费者真正用得着、喜欢用。”杨义红说。

车企也意识到了这样的问题。五通汽车联盟(长安汽车与腾讯的合资公司)战略管理高级总监崔瑞哲认为,智能座舱在某种程度上正在经历“配置叠加、功能叠加”的阶段。公司正在做一些“减法”。

6月,雷星智能汽车副总裁陈晓在2023江淮汽车智能网联及线控底盘论坛上发表了对智能座舱流程趋势的看法:从用户使用功能和方式的频率来看从技术成熟度来看,分为四个象限。第四象限中使用频率更高、技术更成熟的应用才是智能座舱真正需要的功能。

第四象限的场景功能包括AR/VR、玻璃窗/天窗成像、情感识别等。与现在的多屏联动和硬屏触摸相比,主要变化是交互方式,从物理触摸虚拟控制,即通过声音、眼睛、手势等。

所以当Apple Vision Pro问世时,将MR(混合现实)引入到汽车中就被热议。事实上,少数车企已经做出了相关尝试,比如蔚来的AR眼镜、奥迪的车内VR体验系统……但距离完美的交互状态还很远。

智能座舱交互需要转型。

抢占多模交互市场。拐点何时到来?

“物理屏幕还会存在,但我有一个判断,未来物理屏幕和触摸将不再是座舱交互的中心,而会被自然交互(语音、手势、眼动追踪)所取代+ AR-HUD”,地平线生态发展与战略规划副总裁李兴宇去年就曾说过这样的观点。

触摸控制需要驾驶员的手和眼睛使用资源,这会对使用驾驶模式的人造成驾驶安全隐患。因此,未来的交互模式一定是多感官整合。放眼今年,感官融合领域进展如何?

语音交互:如上所述,语音交互能力的提升将对座舱交互生态的发展起到核心作用。目前已经有量产的模型可以实现连续语音对话、免唤醒词功能等功能,但在语音识别和语义理解方面还有很大的提升空间。

在多模态融合的趋势下,增强语音也离不开视觉和手势的参与。科大讯飞提出,在语音识别方面,采用深度降噪技术,在高噪声场景下识别率达到92%以上。车内视线感应采用视线交互技术和 DMS。该技术去年年底在星途耀光车型上首发。量产的行为传感支持10多种手势交互。

多模式、多通道的语音分离技术让汽车听得更清晰,比如唇形+语音融合,让系统的感知更加准确。

手势交互:车上的手势交互模仿手机,“对着相机做手势,自动拍照……”。起初,一些“无用”的功能被搬到了汽车上,但现在手势交互已经得到了更广泛的融合应用。目前,语音和手势交互已经在丽丽等品牌车型上多处使用。例如,将手指指向窗口,同时说“打开它”,系统就会理解并执行。

手势在交互中的地位就像人际交往中的肢体语言一样。手势的加入在更深层次的人机交互中是不可或缺的。 Apple Vision Pro已经澄清了这一点,它依靠跟踪人的眼睛和手势来完成任务操作。

视觉交互:眼神交流将成为未来座舱的流行趋势。目前,眼动追踪系统已应用于安全检测,包括DMS(驾驶员监控系统)和OMS(占用监控系统)。

此外,AR-HUD 还增加了视觉安全性,防止驾驶员注视屏幕而将视线从路面上移开。然而AR-HUD显示的信息并不能遮挡实际的道路信息,所以我们就如何平衡人眼的感知提出了更多的建议。许多测试。

人体感官与机器的自然交互是实现智能座舱的终极形式,其中“多模态融合”是不可逾越的环节。

此时,多模态融合最大的挑战是什么?创文浩询问了行业专家,综合分析后,挑战集中在几个方面:

首先,对算力要求较高。不仅是CPU算力,GPU和NPU也需要更高的算力,因此需要对座舱SoC有足够深入的了解才能很好地利用这些算力。但随着多模态融合的产品价值被车企注意到,更多的算力将被分配用于多模态融合的实施,座舱SOC的算力也在不断提升。

第二,硬件设备需求巨大。智能座舱将满足机舱内所有乘客的不同需求,需要更多的摄像头、麦克风、屏幕、扬声器等,如何协调这些设备将成为智能座舱的挑战。

但是,目前的拍照比例仍然较低,不可能实现所有机型一致的体验。只能部署在一些高端车型上,制约了多模态融合的发展。随着C-NCAP法规的推进,预计DMS车载标准将于2025年实施,届时DMS比例将大幅提升,以利于多模态融合发展。

第三,集成复杂度增加。无论是单独从智能座舱来看,还是从座舱与驾驶员一体化的角度来看,信息交互的复杂度都大大增加。例如,在人机协同驾驶阶段,如何通过高效的HMI(人机界面)让用户在自动驾驶和自动驾驶之间安全切换?

从产业链企业角度来看,技术演进需要更多的在职培训。 MINIEYE表示,在情感识别等技术领域,开发者其实已经积累了一定的经验,但如何将技术转化为功能和产品,并让消费者为其买单,更多的是主机厂的考虑。

科大讯飞也相信,随着应用的更加广泛以及主机厂和供应商的共同努力,多模态交互将逐渐成熟。

君联智行中国CTO朱奎表示,从2015年开始,座舱进入第一个智能化阶段——“智能互联座舱”。当前阶段是2025年左右的“智能共情座舱”阶段,实现多模态交互和AI主动交互,满足所有驾乘人员的在线娱乐和个性化服务。

总结

自2015年互联网进入汽车以来,智能座舱的演进维度越来越广。仅交互系统就涉及语音、视觉、手势等,此外还涉及芯片、域控制器、传感器等硬件设备。

华安证券报告称,智能座舱将拥有千亿级市场。在座舱光学领域,车内摄像头核心部件CIS芯片全球市场规模预计2025年将达到2.2亿美元。全球乘用车HUD市场预计2025年将达到47.3亿美元。座舱声学领域,预计2025年全球汽车功放市场规模将达到2.2亿美元、46.6亿美元。

当自动驾驶风潮渐退、落地举步维艰时,智能座舱行业再次升温,智能座舱领域的宝藏等待被发现。