中国汽车整车技术需求、应用现状及发展趋势
(1)智能网联化
灯光控制模块将作为整车网络的一个节点,不再是孤立的灯具电子模块,通过与整车总线互联互通,大灯就有了自己的“思维”——只照亮该照亮的地方,灯具电子网联化控制会成为一个发展趋势。
a. ADB(Adaptive Driving Beam)
实时自适应照明,是智能灯光发展的一个阶段,也是车用网联化的一个成功应用。从照明来讲,100像素以下的ADB足以实现车灯照明,每个像素均由单独LED芯片精确控制0%-100%的光强,对不同交通情况、天气状况、道路路况、自身车况所需要的配光分布做出调整。当有其他车辆进入车灯的光分布区域时,模块会有选择性地动态掩蔽对方车辆所在区域以防止眩目。
b. DLP(Digital Light Procession)
数字高分辨光处理技术,能提供万级以上,甚至百万级像素,能清晰投影复杂的、带有曲线的图形,确保光顺的截止线拐点,实现没有锯齿的截止线。DLP把光用到极致,在进行来车会车遮蔽的时候,确定需要遮蔽的区域以及满足要求的最小遮蔽窗口,减少照明范围的损失,适应未来有人/无人驾驶共同存在的环境。
在实现照明功能的同时,通过与摄像头、导航以及雷达技术的融合,以投影的方式实现信息的传递,增强车与人之间的互动、汽车与其他道路使用者的沟通。为后续智能驾驶提供更加安全和便捷的夜间行驶“光服务”,增强多种场景的安全驾驶体验。
(2)信息交互化
交互设计致力于为特定的汽车应用场景设计最优的解决方案。根据各个驾驶阶段的有用信息,做出合理决策和操作,通过影像、图形、声音等手段,在友好的交互界面上体现信息将会是信息交互化发展的必然趋势。以DLP为例,除了照亮该照亮的地方(高精度ADB遮蔽),甚至通过灯光给司机打信号,比如,交互信号有: 导航信息路面投射,限速提示,行人互动信息提示,行人位置跟踪提示,行驶意图信号投影,预测行驶区域提示等。信息交互化作为智能驾驶技术,将有效提高汽车驾乘的安全性,通过制造不同场景的交互方案,将用户的产品体验做到极致。
(3)用户界面个性化
用户界面是信息交互的表现途径,是让产品好用且使人愉悦的技术。用户界面设计时,既要了解用户在同产品交互时彼此的行为,又要了解用户和他们的期望,用户界面必须具有易用性和良好的用户体验性。在不影响安全、不违背法规的前提下,将来会有越来越多车型,开放用户界面的部分设置功能,将个性化配置权限释放给用户,用户通过本地或OTA方式更新个性化的配置。比如,交互信息的触发使能、触发条件、信息内容,个性化出行、音乐、智能停车、 电台推荐等。
4.2 技术需求
作为汽车照明的技术领先者,华域视觉拥有清晰的战略方向,建立了智能化模块的开发能力和体系,储备了前沿技术,可为客户提供创新、先进的产品及解决方案。
(1)ADAS(Advanced Driver Assistant system)
a. 嵌入式系统研发能力
电子模块开发离不开软件,嵌入式系统开发的能力建设,是车用零件向电气化、智能化、网联化进化的必要条件。
因智能模块的系统复杂性,需功能复杂的软硬件系统来支撑。目前市面上,典型的硬件系统通常基于3类方案,Mobileye EyeQ3或EyeQ4系统,FPGA(Field - Programmable Gate Array) 系统以及GPU(Graphics Processing Unit) 系统。Mobileye系统是最早的感知识别系统,但方案封闭,OEM和Tier1客户都无法实现个性化开发配置。因此,有较强开发实力和创新能力的Tier1和各初创公司都在积极探索FPGA方案或GPU方案,比较典型的,有MiniEye, 魔视智能,百度,华域视觉等。
图 4.2 基于FPGA方案的硬件架构图 , 软件架构图
软件架构需具备跨平台性,实时性,图形化,视觉识别,可扩展性,安全性等。其对嵌入式系统的软硬件架构提出了标准化需求,通过拆分硬件和软件,创造出一种全新的模块化软件体系,为客户提供一个具有高度动态性和灵活性的平台,使研发人员专注于算法、模型等应用软件的开发,利于需求确认、仿真分析、快速原型、HIL验证,利于迭代改进,利于最终方案的快速冻结。
b. 机器视觉算法研发能力
用深度学习为机器视觉赋能,解决人类视觉的一个痛点:在黑暗或恶劣的天气条件下,人类具有有限的视力和反应能力。
深度学习的优势主要是自学习特征。深度学习如果有足够多的样本用于训练,就能够使系统的感知能力足够高; 传统的计算机视觉算法需要手工提取特征,很多时候还需专家知识、算法的鲁棒性设计,非常困难,很难保证鲁棒性,另外还需大量的调试、非常耗时。
深度学习一般包括四种类型的神经网络层:输入层、卷积层、池化层、输出层。随着网络层和节点数的增加,可以表达更细、更多的识别目标特征,网络结构层数越多,检测精度越精确。
卷积层和池化层是深度学习的核心处理层。卷积层主要是用于负责物体特征的提取;池化层主要是负责采样。
深度学习主要包括两方面内容:一个是训练,一个是检测。训练一般主要是离线进行,就是将采集到的样本输入到训练的网络中。训练网络进行前向输出,再利用标定信息进行反馈,最后输出模型,这个模型再导入到检测的网络中,检测网络就可以对输入的视频和图像进行检测和识别。
c. 通讯网络——Ethernet, 5G等网络技术应用开发能力
车内常见的总线包括LIN、CAN。随着汽车电子爆发,ECU数量和运算能力需求都呈现爆发式增长,在ADAS时代和即将到来的无人驾驶时代将更加明显。车载以太网可减少分布式ECU数量和运算资源的浪费,控制汽车电子系统成本增加。另一方面,车载以太网可满足车载EMC要求,可减少车内连接成本和车内布线重量。再者,对带宽的需求也是一个因素,各种传感器,特别是激光雷达和高分辨率摄像头,必须用车载以太网传输数据,保障信息可靠交付、减小数据包开销、降低传输延时、实现时钟校准。
5G是新一代的移动通讯技术,其更高的速率、更大的峰值带宽、更短的时延、更高的可靠性,会成为万物互联的基础架构,5G所带来的影响将彻底重塑和改变世界。对于汽车行业,5G才能实现真正的车联网。车上能用网络随身听首歌或者刷个微博,只能勉强称之为“车联网”。真正的车联网意味着车辆拥有V2X的通信能力,即实现车与人,车与车,车与路测设施,车与网络的通信。意味着车不仅是一个个独立的点,更是物联网的一个节点。当人们开车上路时,因单车的局限性,雷达、摄像头看不见、看不清、看不准,V2X通信能提供远超出当前传感器感知范围的信息,本质上可以把V2X视为一个拉长拉远的“传感器”,通过和周边车辆、道路、基础设施的通讯,获取比单车能得到的更多的信息,大大增强对周围环境的感知。
d. 照明与显示集成的模块开发能力
面对未来趋势,车灯的使命不再只是照明,而更像是一种显示装置,车灯将进化为照明和高分辨率显示的结合体,需一种新型的光学模块来实现。整套模块的工作过程是,由光源照射在反射镜,由其汇聚形成光斑,并成像于芯片表面工作区域内。芯片根据实际车载智能大灯的需求,打开或者关闭其上的各种可控像素,打开的像素可使得该像素上反射的光线进入后续投影透镜组,而被芯片关闭的像素,将使得该像素上光线偏折,无法进入后续投影透镜组。最终进入投影透镜组的光线,形成照明像素,无法进入投影透镜组的光线,形成暗像素,由此构成了智能大灯所需的明暗照明图形。
因高分辨率的苛刻要求,模块开发有很大难度,其难点如下:
1. 光驱设计,包含了照明光路设计和成像光路设计;
2. 光损控制,因光路长,需降低每个环节的光损失;
3. 装配结构设计,光源、芯片、透镜组、反射镜以及透镜组支架等零件所构成的光路总成,其装配精度要求非常高,如“失之毫厘”,则将“差之千里”;
4. 散热设计,考虑标准化、可复用性,需以最小的散热体积,实现最佳的解热性能,从而确保总成尺寸紧凑小巧,并满足轻量化目标。
e. 智能驾驶的目标感知与信号融合技术
感知目标的类型,大致如下: 周边物体:车辆、行人、道路上可能影响行驶的各种移动或静止物体的识别,交通标志牌的识别。驾驶环境:路面状况、道路交通拥堵情况、天气情况的识别。行驶路径:结构化道路的识别,包括道路信息(车道线、路肩、隔离带等)、恶劣路况的识别;对于非结构化道路,包括车辆行驶前方的道路环境状况的识别、可行驶区域的识别确认。
现有感知方法、原理和优缺点,大致如下:
融合感知所实现的功能要远超这些独立系统能够实现的功能总和,能更加准确地感知周围的环境。相对于独立系统,这样可以做出更好、更安全的决策。
使用不同的传感器种类可以在某一种传感器出现故障的环境条件下,额外提供一定冗余度。这种错误或故障可能是由自然原因(诸如一团浓雾)或是人为现象(例如对摄像头或雷达的电子干扰或人为干扰)导致。即使在一个传感器失效的情况下,这样的传感器融合系统也可以保持某些基本或紧急的功能。完全借助报警功能,或者让驾驶员做好准备去接管对车辆的控制,系统故障也许就不那么严重了。
为了应对这种日益增长的复杂性,融合系统需要考虑如下方面:
多个传感器的融合,比如多个雷达和摄像头传感器;可交换传感器模型以适应不同传感器供应商的选择;能够配置传感器的数量和位置;可以实现不同的应用场景的驾驶环境模型。
与汽车内每个系统单独执行各自的报警或控制功能不同,在一个融合系统中,最终采取哪种操作是由单个器件集中决定的。现在的关键问题就是在哪里完成数据处理,以及如何将传感器的数据发送到中央电子控制单元(Electronic control unit, ECU)。当对不是集中在一起而是遍布车身的多个传感器进行融合时,我们就需要专门考虑传感器和中央融合ECU之间的连接和电缆。对于数据处理的位置也是如此,因为它也会影响整个系统的实现。
(2) 信息交互化
车灯信息交互系统需要明确场景定义以及相应的技术需求。
a. 场景定义及开发需求
导航信息路面投射功能
图 4.4 投射功能
结合车载导航信息,在路面上直接投影出导航信息,直观的引导驾驶员向目的地行驶,与HUD系统对比,在路面上投影显得更加清晰和直观,观测范围远大于HUD,摆脱了EYE BOX观察窗口的范围限制,且路面上的投影是一个实像,图形范围大,直观程度和驾驶员理解反应时间都优于HUD投影的虚像。
图 4.5 限速示功能
集合车载摄像头或车载数字地图,识别当前行驶道路的限速,或其他交通提示信息,通过高亮或短暂闪烁的方式,将信息投射的路面上,起到警示驾驶员的目的。例如,驾驶员已经超速,可以通过路面上高亮、快速闪烁的限速标示牌,起到警示驾驶员立刻减速的目的。
图 4.6 行人互动信息示
与行人互动的信息投影功能,可以提示行人车辆目前的意图,例如在无交通信号指示的内部道路,车辆与希望过马路的行人相遇,车辆可根据情况在路面上投影横道线,或者更加直接的字母、符号等信息,提示行人可以过马路。
在某些特定、但又比较常见的场合,行驶意图信号投影功能是非常有意义的。例如车辆从两边有遮挡的道路进入十字路口时,传统的转向信号可能被遮挡,无法被其他车辆识别,因此通过灯光在路面上直接投影出高亮并且动态的特殊标示就可以解决这一问题。
图 4.8 预测行驶区域示
将当前驾驶状态下的预测行驶轨迹投影在路面上,直观提醒驾驶员,即将碰触的路面轨迹,同时也提醒其他道路参与者,如周围行人,不要进入车辆将要经过的行驶区域。
b. 基于云<—>端的信息交互技术
随着网联技术的不断深入,越来越多的汽车搭载无线通信模块,汽车由端出发,通过网联云,与其他车辆端、基础设施端、手机端,进行人、车、基础设施、互联网的多方交互,帮助解决车辆掌握交通态势等问题。
在未来,基于L5全工况驾驶的形式,将会以人工智能的直接控制,自主决策。通过云-端的信息交互,使用AI的手段,自行建立从驾驶环境到驾驶动作的映射,机动性与实时性俱佳。
(3)界面个性化
个性化界面需与目标用户群体在预期使用情境下已有的经验或思维模型相符,也能随着客户应用体验迭代更新,可从以下几点着手:
1. 了解目标用户群体已有的经验,并试图让界面与这些经验相吻合,做到界面易理解;
2. 不仅通过语音或者触控形式,也可与驾驶车辆交互系统做到多通道配合,让界面个性而又自然。如体感、手势、视觉等等;
3. 根据用户偏好组合多种类界面元素;
4. 个性化界面需变得“透明”,用户的注意力完全集中在所要从事的活动上,降低用户在操作界面上的视觉停留,可使用户更加专注路况;
5. 可通过本地或OTA技术(Over-The-Air technology)的方式进行个性化设置。
-
“锂”想不设限!比亚迪叉车赋能绿色工厂
2024-12-12 -
一场比亚迪叉车与电商企业的“双向奔赴”
2024-12-03 -
还原新鲜,守护安全——比亚迪叉车助力某乳制品
2024-11-26 -
科技定制与人机关怀:比亚迪叉车的守护之约
2024-11-20
最新资讯
-
新能源汽车供应链企业如何破卷、破圈
2024-12-23 10:27
-
电装中国:践行双碳战略,引领制造业
2024-12-20 17:26
-
【客户案例】高速、高质与高效,埃马
2024-12-18 17:06
-
尊界超级工厂正式落成
2024-12-17 08:36
-
通用汽车放弃这个项目
2024-12-15 16:08