在思考智能座舱最理想的交互模式是什么之前,我们其实要首先考虑一个问题,那就是智能座舱的交互的目的是什么。座舱的交互从汽车诞生开始就已经存在。只不过随着汽车的不断发展,在交互的方式上发生了改变。但交互的目的其实不外乎「信息的获取」和「指令的执行」。为了提高信息获取和指令执行的效率,在交互的设计上通常有以下几点考虑:
除了交互模式本身,随着科技进步和汽车产品功能的多元化,车内外所承载的信息量越来越多。而中控大屏的诞生实际上也是在解决信息承载这一问题。交互方式随着车辆功能发展的过程中,也逐渐实现了从物理按钮-数字触屏-语音控制-手势识别-多模态交互的发展过程。这其实也是电子产品交互方式的演进过程。
电子产品交互模式的演进过程
交互的基础-信息承载
在从触屏到多模态交互过渡的过程中,除去交互模式本身,中控屏幕最先要解决的是信息承载的功能。这一功能随着汽车的智能化和网联化之后尤为凸显。在车辆本身的功能之外,中控屏需要进一步承载网联化的功能。与此同时,随着生活方式的不同,汽车的使用场景也开始拓展,从而不仅仅拘泥于汽车这个空间场景之内。这也是智慧车联的核心用户利益点所在。
大众的IQ. 智慧车联功能其基础的功能定义就是通过P2P与线上服务的方式提供更多和更精确的信息承载。
随着汽车的智能化使得车辆本身的功能进一步增加。原有的界面层级导致操作效率的下降。因此,在原有交互逻辑和菜单界面的基础上,我们对于中控屏幕的信息层级进行了更符合交互逻辑的设计,通过对于功能优先级的进一步梳理,功能入口的重新设计,提高了交互的便利度。
交互的未来-多模态交互
从智能座舱的交互方式上来说,多模态交互是未来的趋势,但是不同的交互方式之间应该主次分明。从发展趋势上来说,交互方式有以下几个发展方向:
在众多的交互功能当中,语音的交互功能之所以在众多的交互模式中凸显出来的原因是其触达路径短和安全系数高的优势,只要能够解决语音交互的响应速度问题,语音就能够代替大多数的触控交互方式。
大众的IQ. 语音精灵也是在大的交互演进的趋势下,所诞生出的语音交互功能的集合。语音功能的开发出了自身算法引擎所具备的高效的识别能力外,更需要通过使用场景的归类对于功能场景进行切分,以提高交互的体验。IQ. 语音精灵通过先进的语音识别技术,能够实现语义的精准理解和快速反馈,通常支持多轮互动对话,无需重复唤醒,从而提高了功能的场景边界和便利程度。针对语音声控、导航、听音乐、调节空调温度、查看天气等功能,统统可以以语音进行控制,极大地提高了交互效率。而语音交互本身也是众多交互方式当中最安全的交互方式,因为语音交互可以保证驾驶员的视线始终停留在视野前方,同时语音交互的方式也可以很大程度降低驾驶员的投入。针对中国本土化的用户需求,还进行了方言版本的语义识别,包括四川话和广东话等,方便全地区的用户使用。
除了语音交互模式之外,手势识别和脑机交互可能是未来交互模式多元化的方向。手势识别的使用场景更利于除了驾驶员之外的车内乘员使用,他们可以通过手势识别从而更便捷进行娱乐场景功能的体验。而脑机交互则具备减少驾驶员投入的基础,并且将触达途径变得更短更快。其挑战在于对于意念的识别和脑科学研究领域的进展还并不能形成完整的商业化产品。
整体而言,未来的交互模式朝着多模态交互的方式发展,在目前阶段,IQ. 智慧车联和IQ. 语音精灵可以为用户提供更为便捷的交互体验。在未来,大众也会发力于多模态交互的开发,提升用户在不同场景下的功能体验。