自2015年起,互联网技术开始融入汽车行业,推动了智能座舱技术的迅速发展。仅交互系统就涉及语音、视觉、手势等,此外还有芯片、域控制器、传感器等硬件设备。
根据分析,智能座舱市场预计将成为一个价值千亿的细分市场。座舱光学领域,到2025年,全球舱内摄像头的核心部件CMOS图像传感器芯片市场规模有望达到2.2亿美元,而HUD市场空间将达47.3亿美元。在座舱声学领域,市场规模预计将达到46.6亿美元。
自动驾驶技术的发展面临挑战,智能座舱却显示出强劲的增长势头。
智能座舱交互需要一场蜕变。
尽管实体屏幕在未来仍将存在,但它们和触控技术将不再是驾驶舱交互的核心。相反,自然交互方式(如语音、手势和眼球跟踪)结合AR-HUD将成为主导。这是因为触摸控制需要驾驶员同时使用手和眼睛,这可能会分散他们的注意力,从而增加驾驶风险。因此,未来的驾驶交互模式预计将向多感官融合转变。那么,今年感官融合领域有哪些新的进展呢?
语音交互
语音交互能力的增强是推动座舱交互生态发展的关键。目前,部分量产车型已经能够实现连续语音对话和无需唤醒词的功能,然而在语音识别和语义理解方面,仍存在显著的提升潜力。
在多模态融合的趋势下,语音交互的强化也需结合视觉和手势识别技术。例如,科大讯飞利用深度降噪技术,使得在嘈杂环境下的语音识别率超过92%。此外,车内的视线交互技术和DMS已在奇瑞星途瑶光车型上实现量产应用,能够支持10多种手势交互。
通过采用多模态多通道语音分离技术,如结合唇形和声音,汽车的听觉系统可以更加精确地感知和理解用户指令。
手势交互
汽车界面的手势互动功能,最初被视作无用功能,现已广泛应用于理想等品牌的车型中,与语音指令相结合,提升了交互的便利性和直观性。例如,用户仅需指向车窗并发出语音指令,系统便能相应地操作窗户。
如同人际交流中的肢体语言,手势在人机交互中扮演着至关重要的角色,是实现深层次互动的关键。Apple Vision Pro通过追踪用户的眼神和手势来完成操作任务,充分展示了手势交互的重要性和应用前景。
视觉交互
在将来的座舱设计中,利用眼神交流的技术将成为一个重要的趋势。目前,眼球跟踪技术已经被广泛应用于安全监测领域,包括驾驶员监控系统 (DMS) 和车内人员监控系统 (OMS)。
AR-HUD通过增加视觉元素来提高安全性,以防止驾驶员因查看屏幕而转移对道路的视线。然而,AR-HUD的显示信息需要避免遮挡实际的道路信息,这对如何平衡人类视觉感知提出了新的挑战。
实现智能座舱的最终目标在于人体感官与机器的自然交互,其中“多模态融合”已经成为一个不可或缺的环节。